Lokale neuronale Netze mit Ollama

Wenn Sie den Wunsch hatten, so etwas wie ChatGPT zu starten, und über einen ziemlich leistungsstarken Computer verfügen, beispielsweise mit einer Nvidia RTX-Grafikkarte, können Sie das Ollama-Projekt ausführen, mit dem Sie eines der vorgefertigten LLM-Modelle verwenden können Ihrem lokalen Computer, absolut kostenlos. Ollama bietet die Möglichkeit, mit LLM-Modellen zu kommunizieren. In der neuesten Version wurde auch die Möglichkeit angekündigt, Bilder zu lesen und die Ausgabedaten im JSON-Format zu formatieren.

Ich habe das Projekt selbst auch auf einem MacBook mit einem Apple M2-Prozessor ausgeführt und weiß, dass die neuesten Grafikkartenmodelle von AMD unterstützt werden.

Um es unter macOS zu installieren, gehen Sie zur Ollama-Website:
https://ollama.com/download/mac

Klicken Sie auf „Für macOS herunterladen“. Sie laden ein Archiv der Form ollama-darwin.zip herunter. Im Archiv befindet sich Ollama.app, das nach „Anwendungen“ kopiert werden muss. Starten Sie anschließend Ollama.app. Der Installationsvorgang wird höchstwahrscheinlich beim ersten Start ausgeführt. Danach haben Sie in der Taskleiste das Ollama-Symbol gesehen, die Taskleiste befindet sich oben rechts neben der Uhr.

Starten Sie anschließend ein normales macOS-Terminal und geben Sie den Befehl ein, um ein beliebiges Ollama-Modell herunterzuladen, zu installieren und auszuführen. Eine Liste der verfügbaren Modelle, Beschreibungen und ihre Eigenschaften finden Sie auf der Ollama-Website:
https://ollama.com/search

Wählen Sie das Modell mit den wenigsten Parametern, wenn es beim Start nicht in Ihre Grafikkarte passt.

Beispielbefehle zum Ausführen des Modells llama3.1:latest:


ollama run llama3.1:latest

Die Installation für Windows und Linux ist im Allgemeinen ähnlich, in einem Fall gibt es ein Ollama-Installationsprogramm und die weitere Arbeit damit über Powershell.
Bei Linux erfolgt die Installation über ein Skript, ich empfehle jedoch die Verwendung der Version Ihres spezifischen Paketmanagers. Unter Linux kann Ollama auch über ein normales Bash-Terminal gestartet werden.

Quellen
https://www.youtube.com/watch?v=Wjrdr0NU4Sk
https://ollama.com

Leave a Comment

Your email address will not be published. Required fields are marked *