Cookie-Hinweis

Diese Website verwendet notwendige Cookies (Session-Cookies), die bis zum Ende Ihrer Browser-Sitzung gültig sind. Darüber hinaus werden optionale Cookies von Websites Dritter gesetzt, deren Inhalte wir einbetten, aber auch für Marketingzwecke und Analyse des Nutzerverhaltens, sofern Sie dies akzeptieren. Das Ziel der optionalen Marketing-Cookies ist es, Ihr Nutzererlebnis zu verbessern. Weitere Informationen und Einstellungsmöglichkeiten für die Cookies auf dieser Website finden Sie in unserer Cookie Richtlinien.

Ollama lokal einrichten

Ollama ist mittlerweile ein sehr beliebtes Tool um LLMs lokal auf dem eigenen Rechner auszuführen. Ein Alternative dazu währe zum Beispiel LM Studio oder llama.cpp. Ollama zeichnet sich dadurch aus, dass es sehr einfach zu installieren ist und in weiteren Tools wie zum Beispiel Openwebui, n8n, flowise, usw. sehr einfach als Backend integriert werden kann. Zudem stehen dem Nutzer eine Vielzahl verschiedener frei verfügbarer Chatmodelle zur Verfügung.

Unter dem Link https://ollama.com/download haben Sie die Möglichkeit Ollama für die Betriebssysteme Windows, MacOS und Linux herunter zu laden. Vorraussetzung für den Betrieb von Ollama ist eine Grafikkarte idealerweise von Nvidia mit mindestens 8GB VRAM, mittlerweile werden auch AMD Grafikkarten von Ollama unterstützt. Schwieriger ist es, wenn Sie eine Intel Grafikkarte in Ihrem Rechner verbaut haben oder eine CPU mit APU-Einheit aber auch hierfür gibt es Lösungen. Wichtig im Zusammenhang mit Grafikkarten ist der sogenannte VRAM (Grafikkarten Speicher). Dieser sollte möglichst groß sein, falls Sie die Absicht haben umfangreichere LLMs zu nutzen. Ich selbst nutze eine Karte mit 16 GB VRAM. Ollama an sich verwaltet für Sie die LLM Modelle, läd sie in den Speicher und regelt die Ein- und Ausgabe. Zudem wird eine Schnittstelle bereitgestellt um über andere Tools auf darauf zu zugreifen.

Mit dem folgenden Befehl installieren Sie Ollama auf einem Linuxsystem für MacOS und Windows stehen entsprechende Installationsprogramme zur Verfügung.

curl -fsSL https://ollama.com/install.sh | sh

Nach der Installation können Sie per Console Ollama ausführen. Ihnen stehen verschiedene Möglichkeiten zur Verfügung. 

$ ollama
Usage:
  ollama [flags]
  ollama [command]

Available Commands:
  serve       Start ollama
  create      Create a model
  show        Show information for a model
  run         Run a model
  stop        Stop a running model
  pull        Pull a model from a registry
  push        Push a model to a registry
  signin      Sign in to ollama.com
  signout     Sign out from ollama.com
  list        List models
  ps          List running models
  cp          Copy a model
  rm          Remove a model
  help        Help about any command

Flags:
  -h, --help      help for ollama
  -v, --version   Show version information

Use "ollama [command] --help" for more information about a command.
$

Mit ollama serve starten Sie den Ollama Server-Dienst und können standardmäßig über den Port 11434 local auf diesen zugreifen. Um Ollama im gesamten Netzwerk freizugeben, ist eine Anpassung in der /etc/systemd/system/ollama.service Datei vorzunehmen und die Zeile Environment="OLLAMA_HOST=0.0.0.0" unter Service zu ergänzen und den Ollama Dienst neu zu starten. Bitte hier unbedingt weitere Sicherheitsmaßnahmen treffen, um zu verhindern, dass Unberechtigte auf ihre Ollama API zugreifen können. Durch ollama list können Sie sich alle lokal installierten LLMs anzeigen lassen. Haben Sie Ollama gerade neu installiert wird Ausgabe leer sein. 

$ ollama list
NAME                                        ID              SIZE      MODIFIED    
llama3.1:latest                             46e0c10c039e    4.9 GB    3 weeks ago    
mistral-nemo:latest                         e7e06d107c6c    7.1 GB    3 weeks ago    
gemma3n:latest                              15cb39fd9394    7.5 GB    3 weeks ago    
deepseek-r1:14b                             c333b7232bdb    9.0 GB    3 weeks ago    
phi4:latest                                 ac896e5b8b34    9.1 GB    3 weeks ago    
qwen3:14b                                   bdbd181c33f2    9.3 GB    3 weeks ago    
gpt-oss:latest                              aa4295ac10c3    13 GB     3 weeks ago    
dolphin3:latest                             d5ab9ae8e1f2    4.9 GB    3 weeks ago    
gemma3:latest                               a2af6cc3eb7f    3.3 GB    4 weeks ago 
$   

Um ein LLM lokal auf ihren Rechner sich herunter zu laden nutzen Sie den Befehl ollama pull <modelname>

$ ollama pull deepseek-r1:8b
pulling manifest 
pulling e6a7edc1a4d7: 100% ▕████████████████████████████████████████████████████████████████████████████████▏ 5.2 GB                         
pulling c5ad996bda6e: 100% ▕████████████████████████████████████████████████████████████████████████████████▏  556 B                         
pulling 6e4c38e1172f: 100% ▕████████████████████████████████████████████████████████████████████████████████▏ 1.1 KB                         
pulling ed8474dc73db: 100% ▕████████████████████████████████████████████████████████████████████████████████▏  179 B                         
pulling f64cd5418e4b: 100% ▕████████████████████████████████████████████████████████████████████████████████▏  487 B                         
verifying sha256 digest 
writing manifest 
success 
$ 

Der Start des Modells erfolgt über den Befehl ollama run <modelname> und kann anschließend als KI-Chat über Console verwendet werden.

$ ollama run deepseek-r1:8b
>>> Send a message (/? for help)

Mit /bye kann dieser Chat dann wieder beendet werden.

>>> /bye

Viel Spaß mit Ollama!

Go Back