Ollama auf dem Mac verwenden

ollama list command in the terminal

Im ersten Artikel zu Ollama wurde erklärt, wie Ollama auf dem Mac installiert werden kann, um eine KI lokal nutzen zu können. Nun wollen wir einen genaueren Blick auf die Möglichkeiten werfen, die dieses KI-Werkzeug bietet. Befassen wir uns zunächst mit den zur Verfügung stehenden Sprachmodellen (lokal und online). Einen Überblick über bereits installierten, also lokal ausführbaren Modellen, liefert die … Weiterlesen …

Wie können Sprachmodelle genutzt werden?

Im vorherigen Artikel zum Thema Künstliche Intelligenz ging es um die lokale Nutzung eines Large Language Models mithilfe von Ollama, einem Programm für die Kommandozeile, das mittlerweile auch über eine — ChatGPT ähnliche — grafische Benutzeroberfläche verwendet werden kann. Dieser Blogbeitrag ist im Grunde ein Schritt zurück. Denn anstatt weitere Tools vorzustellen, die entweder eine lokale oder eine Online-Verwendung ermöglichen, … Weiterlesen …

Large Language Models mit Ollama lokal auf dem Mac nutzen

Eingabeaufforderung von Ollama in iTerm

Dies ist nicht der erste Artikel zum Thema Künstliche Intelligenz. Bereits in früheren Artikeln, wie auch im Buch macOS-Shell für Anfänger hatte ich darüber berichtet, wobei es seinerzeit lediglich um die Alltagstauglichkeit von KI-Chatbots ging. Beginnend mit diesem Blogbeitrag möchte ich nun jedoch tiefer in das Thema Künstliche Intelligenz einsteigen. Denn entgegen mancher Ansichten verschiedener Akteure in der Vergangenheit, ist … Weiterlesen …