Zugriff auf Ollama über das Netzwerk

Ollama und lokale Sprachmodelle können auch über das Netzwerk genutzt werden. Im nachfolgenen Beispiel wird Ollama auf einem Mac ausgeführt. Als Sprachmodell verwende ich gemma4. Dieses Modell soll von einem anderen Rechner, einem Linux-PC, verwendet werden. Vorausstzung ist, dass in den Einstellungen von Ollama der Zugriff über das Netzwerk gestattet wird. Diese Einstellung kann über aufgerufen werden. Dort ist die … Weiterlesen …

Ollamas API mit Python nutzen

Ollama zusammen mit requests in Python verwenden

In einem älteren Artikel wurde gezeigt, wie in der Shell mit dem Befehl curl eine Frage an ein vom Ollama verwaltetes Sprachmodell gesendet werden kann. Falls auf dem System als lokale KI das Sprachmodell gemma3 verwendet wird, könnte dies wie folgt aussehen: In diesem Tutorial wird gezeigt, wie dies mit Python umgesetzt werden kann. Dabei wird ebenfalls auf die Ollama-API … Weiterlesen …

Wie können Sprachmodelle genutzt werden?

Im vorherigen Artikel zum Thema Künstliche Intelligenz ging es um die lokale Nutzung eines Large Language Models mithilfe von Ollama, einem Programm für die Kommandozeile, das mittlerweile auch über eine — ChatGPT ähnliche — grafische Benutzeroberfläche verwendet werden kann. Dieser Blogbeitrag ist im Grunde ein Schritt zurück. Denn anstatt weitere Tools vorzustellen, die entweder eine lokale oder eine Online-Verwendung ermöglichen, … Weiterlesen …

Liniendiagramm mit der Hilfe von KI erstellen lassen

In diesem Blogbeitrag möchte ich über meine Erfahrung mit der Visualisierung von Daten unter Zuhilfenahme einer KI berichten. Ziel war es einen CSV-Datensatz auszuwerten und mithilfe von Python, Pandas und Matplotlib zu visualisieren. Wie der Code dafür aussehen könnte, habe ich in diesem Artikel erklärt. Nun sollten Mistrals Le Chat, Gemini und DeepSeek zeigen, was sie können. Dabei habe ich … Weiterlesen …