Ollamas API mit Python nutzen

Ollama zusammen mit requests in Python verwenden

In einem älteren Artikel wurde gezeigt, wie in der Shell mit dem Befehl curl eine Frage an ein vom Ollama verwaltetes Sprachmodell gesendet werden kann. Falls auf dem System als lokale KI das Sprachmodell gemma3 verwendet wird, könnte dies wie folgt aussehen: In diesem Tutorial wird gezeigt, wie dies mit Python umgesetzt werden kann. Dabei wird ebenfalls auf die Ollama-API … Weiterlesen …

Sprachübersetzung mit Ollama und TranslateGemma

Ollama im Terminal von macOS

Mit Ollama können Sprachmodelle lokal genutzt werden. In diesem Artikel habe ich erklärt, wie man dieses Tool auf einem Mac installiert und Sprachmodelle für die lokale Verwendung herunterlädt. Nun möchte ich ein neues Modell vorstellen: TranslateGemma. Wie der Name erahnen lässt, lassen sich damit Texte übersetzen. Dieses Sprachmodell wurde von Google veröffentlicht, es basiert auf Gemma 3. Das Sprachmodell ist … Weiterlesen …

Ollama auf dem Mac verwenden

ollama list command in the terminal

Im ersten Artikel zu Ollama wurde erklärt, wie Ollama auf dem Mac installiert werden kann, um eine KI lokal nutzen zu können. Nun wollen wir einen genaueren Blick auf die Möglichkeiten werfen, die dieses KI-Werkzeug bietet. Befassen wir uns zunächst mit den zur Verfügung stehenden Sprachmodellen (lokal und online). Einen Überblick über bereits installierten, also lokal ausführbaren Modellen, liefert die … Weiterlesen …

Wie können Sprachmodelle genutzt werden?

Im vorherigen Artikel zum Thema Künstliche Intelligenz ging es um die lokale Nutzung eines Large Language Models mithilfe von Ollama, einem Programm für die Kommandozeile, das mittlerweile auch über eine — ChatGPT ähnliche — grafische Benutzeroberfläche verwendet werden kann. Dieser Blogbeitrag ist im Grunde ein Schritt zurück. Denn anstatt weitere Tools vorzustellen, die entweder eine lokale oder eine Online-Verwendung ermöglichen, … Weiterlesen …