Ollamas API mit Python nutzen

Ollama zusammen mit requests in Python verwenden

In einem älteren Artikel wurde gezeigt, wie in der Shell mit dem Befehl curl eine Frage an ein vom Ollama verwaltetes Sprachmodell gesendet werden kann. Falls auf dem System als lokale KI das Sprachmodell gemma3 verwendet wird, könnte dies wie folgt aussehen: In diesem Tutorial wird gezeigt, wie dies mit Python umgesetzt werden kann. Dabei wird ebenfalls auf die Ollama-API … Weiterlesen …

Sprachübersetzung mit Ollama und TranslateGemma

Ollama im Terminal von macOS

Mit Ollama können Sprachmodelle lokal genutzt werden. In diesem Artikel habe ich erklärt, wie man dieses Tool auf einem Mac installiert und Sprachmodelle für die lokale Verwendung herunterlädt. Nun möchte ich ein neues Modell vorstellen: TranslateGemma. Wie der Name erahnen lässt, lassen sich damit Texte übersetzen. Dieses Sprachmodell wurde von Google veröffentlicht, es basiert auf Gemma 3. Das Sprachmodell ist … Weiterlesen …

Ollamas API auf dem Mac mit curl nutzen

Den Anfang in die Welt von Ollama und Sprachmodellen machte ein Artikel, in dem die Grundlagen erklärt wurden. Im zweiten Teil ging wurde tiefer in die Materie eingetaucht. Neben dem Herunterladen von Sprachmodellen, wurden weitere Befehle für die Verwaltung und Modifizierung vorgestellt. Im dritten Teil dreht sich alles um Programmierschnittstellen (API = Application Programming Interface). Neben dem Befehl ollama oder … Weiterlesen …

Ollama auf dem Mac verwenden

ollama list command in the terminal

Im ersten Artikel zu Ollama wurde erklärt, wie Ollama auf dem Mac installiert werden kann, um eine KI lokal nutzen zu können. Nun wollen wir einen genaueren Blick auf die Möglichkeiten werfen, die dieses KI-Werkzeug bietet. Befassen wir uns zunächst mit den zur Verfügung stehenden Sprachmodellen (lokal und online). Einen Überblick über bereits installierten, also lokal ausführbaren Modellen, liefert die … Weiterlesen …