Skip Navigation

DeepSeek 14b Modell mit Ollama lokal auf Linux nutzen

Eine kleine Ollama -Anleitung, wie man die DeepSeek-Modelle ganz einfach lokal auf Linux mit 16 GB RAM (sogar ohne GPU) ausprobieren kann. Hier am Beispiel des ganz ordentlichen 14b-Modells deepseek-r1:14b.

  • der Ollama-Download hat ca. 1.6 GB
  • das Modell deepseek-r1:14b hat ca. 9 GB

Ollama wie folgt in einen Ordner herunterladen und dort auspacken:

 `
    
mkdir ollama
cd ollama
wget https://github.com/ollama/ollama/releases/download/v0.5.7/ollama-linux-amd64.tgz
tar xfv ollama-linux-amd64.tgz
`
  

Ollama-Server starten:

 `
    
bin/ollama serve
`

  

Modell herunterladen und starten:

 `
    
bin/ollama run deepseek-r1:14b
`

  

Modell stoppen:

 `
    
bin/ollama stop deepseek-r1:14b
`
  
1 comments