Die Ollama-Bibliothek für Python

Ollama-Bibliothek für Python verwenden

Dies ist der fünfte Artikel, in dem es um Ollama geht, das Programm für die Verwaltung lokaler Sprachmodelle. Bisher wurden folgende Beiträge veröffentlicht: Neben Ollama geht es in diesem Artikel auch um Python, denn ich möchte zeigen, wie man mit Python auf Ollama — genauer gesagt die Ollama-API — zugreifen kann. Das klingt wie eine Wiederholung des vierten Beitrags dieser … Weiterlesen …

Ollamas API mit Python nutzen

Ollama zusammen mit requests in Python verwenden

In einem älteren Artikel wurde gezeigt, wie in der Shell mit dem Befehl curl eine Frage an ein vom Ollama verwaltetes Sprachmodell gesendet werden kann. Falls auf dem System als lokale KI das Sprachmodell gemma3 verwendet wird, könnte dies wie folgt aussehen: In diesem Tutorial wird gezeigt, wie dies mit Python umgesetzt werden kann. Dabei wird ebenfalls auf die Ollama-API … Weiterlesen …

Sprachübersetzung mit Ollama und TranslateGemma

Ollama im Terminal von macOS

Mit Ollama können Sprachmodelle lokal genutzt werden. In diesem Artikel habe ich erklärt, wie man dieses Tool auf einem Mac installiert und Sprachmodelle für die lokale Verwendung herunterlädt. Nun möchte ich ein neues Modell vorstellen: TranslateGemma. Wie der Name erahnen lässt, lassen sich damit Texte übersetzen. Dieses Sprachmodell wurde von Google veröffentlicht, es basiert auf Gemma 3. Das Sprachmodell ist … Weiterlesen …

Ollamas API auf dem Mac mit curl nutzen

Den Anfang in die Welt von Ollama und Sprachmodellen machte ein Artikel, in dem die Grundlagen erklärt wurden. Im zweiten Teil ging wurde tiefer in die Materie eingetaucht. Neben dem Herunterladen von Sprachmodellen, wurden weitere Befehle für die Verwaltung und Modifizierung vorgestellt. Im dritten Teil dreht sich alles um Programmierschnittstellen (API = Application Programming Interface). Neben dem Befehl ollama oder … Weiterlesen …