Wenn Sie Ollama verwenden und nicht jedes Mal Ihren eigenen API-Wrapper schreiben möchten,
Das Projekt ollama_call vereinfacht die Arbeit erheblich.
Dies ist eine kleine Python-Bibliothek, die es Ihnen ermöglicht, mit einer Funktion eine Anfrage an ein lokales LLM zu senden
und erhalten sofort eine Antwort, auch im JSON-Format.
Installation
pip install ollama-call
Warum wird es benötigt
- Minimalcode für die Arbeit mit dem Modell;
- Strukturierte JSON-Antwort zur weiteren Verarbeitung;
- praktisch für schnelle Prototypen und MVPs;
- unterstützt bei Bedarf die Streaming-Ausgabe.
Beispiel verwenden
from ollama_call import ollama_call
response = ollama_call(
user_prompt="Hello, how are you?",
format="json",
model="gemma3:12b"
)
print(response)
Wenn es besonders nützlich ist
- Sie schreiben Skripte oder Dienste auf Basis von Ollama;
- benötigen ein vorhersehbares Antwortformat;
- Es besteht kein Wunsch, schwere Frameworks zu verbinden.
Gesamt
ollama_call ist ein leichter und übersichtlicher Wrapper für die Arbeit mit Ollama aus Python.
Eine gute Wahl, wenn Einfachheit und schnelle Ergebnisse wichtig sind.
GitHub
https://github.com/demensdeum/ollama_call