Im vorherigen Artikel zum Thema Künstliche Intelligenz ging es um die lokale Nutzung eines Large Language Models mithilfe von Ollama, einem Programm für die Kommandozeile, das mittlerweile auch über eine — ChatGPT ähnliche — grafische Benutzeroberfläche verwendet werden kann.
Dieser Blogbeitrag ist im Grunde ein Schritt zurück. Denn anstatt weitere Tools vorzustellen, die entweder eine lokale oder eine Online-Verwendung ermöglichen, möchte ich in diesem Artikel eine allgemeine Übersicht über verschiedene Möglichkeiten zur Verwendung von Künstlicher Intelligenz geben, wobei nachfolgende Übersicht keinen Anspruch auf Vollständigkeit erhebt.
Online-Zugriff
Die für Nutzerinnen und Nutzer am weitesten verbreitete Art der Nutzung von KI dürfte das Aufrufen eines Chat-Fensters im Browser sein. Dabei ist (in der westlichen Hemisphäre) ChatGPT wohl am weitesten verbreitet. Darüber hinaus gibt es noch andere Anbieter bzw. KI-Sprachmodelle, z.B. Mistrals Le Chat, Deepseek, Googles Gemini, Microsofts Copilot oder Kimi K2 von Moonshot AI. Neben dem Zugriff über einen Browser, stellen manche Anbieter auch Apps für iOS, Android oder den Desktop zur Verfügung. Bei dieser Art der Nutzung von Künstlicher Intelligenz gibt der Nutzer einen Text in ein Eingabefeld ein, der dann von einem KI-Sprachmodell — einem Large Language Model (LLM) — online verarbeitet wird.
Offline-Zugriff
Man kann ein Large Language Model auch herunterladen und lokal verwenden. Zahlreiche KI-Modelle werden zum Beispiel auf der Internetseite Hugging Face für die lokale Verwendung bereitgestellt. Um das Herunterladen eines Modells zu vereinfachen und zugleich ein Schnittstelle für den Chat (oder eine andere Verwendung) bereitzustellen, gibt es verschiedene (kostenlose) Programme. Eines dieser Programme ist Ollama, das in der Praxis sehr beliebt ist und in diesem Blogbeitrag besprochen wurde. Darüber hinaus gibt es beispielsweise LM Studio, Jan oder Msty. Mac-Nutzer haben darüber hinaus die Möglichkeit, Pico AI Server aus dem Mac App Store zu laden.
Zugriff über eine Programmierschnittstelle (API)
Die Anbieter von LLMs ermöglich häufig auch den Zugriff auf ihre jeweiligen KI-Sprachmodelle über eine Programmierschnittstelle (Application Programming Interface oder kurz: API). Diese Zugriffe sind in der Regel kostenpflichtig. Wie der Name erahnen lässt, ist ein Zugriff über eine API für Programmierer interessant, die ein Programm entwickeln möchten, das über KI-Fähigkeiten verfügen soll. So könnte man beispielsweise über diesen Weg seinen eigenen KI-Chatbot bauen. Ein Beispiel, wie so etwas in Code gegossen aussehen könnte, findet ihr auf Github.
Der Vollständigkeit halber sei erwähnt, dass dieser Text zum Thema Programmierschnittstelle auch im Abschnitt „Online-Zugriff“ hätte stehen können. Denn es handelt sich hierbei um eine andere Art der Nutzung eines KI-Modells, das in der Cloud läuft. Gleichzeitig wäre aber auch eine Einordnung unter „Offline-Zugriff“ möglich gewesen. Denn sobald man ein Large Language Modell heruntergeladen hat, könnte man über eine Programmierschnittstelle auf das lokale KI-Modell zugreifen.
Applikation mit KI-Integration
Wie erwähnt, kann über eine API der Zugriff auf ein lokales KI-Sprachmodell oder über ein Modell, das in der Cloud läuft, ermöglicht werden. Das Ergebnis ist dann eine entsprechende KI-fähige App. Microsoft hat beispielsweise Outlook, Word oder Excel KI-tauglich gemacht. Andere Anbieter haben gleichgezogen oder entwickeln Applikationen, die KI-Funktionalität integrieren werden. Es wird interessant sein zu beobachten, was diesbezüglich in der Apple-Welt passieren wird. Denn Apple hat auf der WWDC25 das Foundation Models Framework für Programmierer vorgestellt. Damit kann ein lokal laufendes KI-Sprachmodell in iOS-Apps integriert werden. Mit iOS 26 werden wir vermutlich einige solcher Apps zu sehen bekommen.
KI-Sprachmodelle für Programmierer
Bei diesen Modellen handelt es sich nicht um eine weitere Kategorie. Vielmehr möchte ich an dieser Stelle darauf hinweisen, dass ich in diesem Blog zukünftig einige Praxisbeispiele vorstellen möchte, z.B. die Integration in Visual Studio Code oder PyCharm. Wie bereits erwähnt, wurde die lokale Nutzung mithilfe von Ollama bereits in diesem Artikel erklärt. In weiteren Tutorials werde ich noch auf Alternativen zu Ollama eingehen. In diesem Zusammenhang wird auch gezeigt werden, wie man lokale KI-Sprachmodelle in andere Applikationen integrieren kann.