DeepSeek 14b Modell mit Ollama lokal auf Linux nutzen
DeepSeek 14b Modell mit Ollama lokal auf Linux nutzen
Eine kleine Ollama -Anleitung, wie man die DeepSeek-Modelle ganz einfach lokal auf Linux mit 16 GB RAM (sogar ohne GPU) ausprobieren kann. Hier am Beispiel des ganz ordentlichen 14b-Modells deepseek-r1:14b
.
- der Ollama-Download hat ca. 1.6 GB
- das Modell
deepseek-r1:14b
hat ca. 9 GB
Ollama wie folgt in einen Ordner herunterladen und dort auspacken:
`
mkdir ollama cd ollama wget https://github.com/ollama/ollama/releases/download/v0.5.7/ollama-linux-amd64.tgz tar xfv ollama-linux-amd64.tgz `
Ollama-Server starten:
`
bin/ollama serve `
Modell herunterladen und starten:
`
bin/ollama run deepseek-r1:14b `
Modell stoppen:
`
bin/ollama stop deepseek-r1:14b `