Ollama-Anruf

Wenn Sie Ollama verwenden und nicht jedes Mal Ihren eigenen API-Wrapper schreiben möchten,
Das Projekt ollama_call vereinfacht die Arbeit erheblich.

Dies ist eine kleine Python-Bibliothek, die es Ihnen ermöglicht, mit einer Funktion eine Anfrage an ein lokales LLM zu senden
und erhalten sofort eine Antwort, auch im JSON-Format.

Installation

pip install ollama-call

Warum wird es benötigt

  • Minimalcode für die Arbeit mit dem Modell;
  • Strukturierte JSON-Antwort zur weiteren Verarbeitung;
  • praktisch für schnelle Prototypen und MVPs;
  • unterstützt bei Bedarf die Streaming-Ausgabe.

Beispiel verwenden

from ollama_call import ollama_call

response = ollama_call(
    user_prompt="Hello, how are you?",
    format="json",
    model="gemma3:12b"
)

print(response)

Wenn es besonders nützlich ist

  • Sie schreiben Skripte oder Dienste auf Basis von Ollama;
  • benötigen ein vorhersehbares Antwortformat;
  • Es besteht kein Wunsch, schwere Frameworks zu verbinden.

Gesamt

ollama_call ist ein leichter und übersichtlicher Wrapper für die Arbeit mit Ollama aus Python.
Eine gute Wahl, wenn Einfachheit und schnelle Ergebnisse wichtig sind.

GitHub
https://github.com/demensdeum/ollama_call