Se você usa Ollama e não quer escrever seu próprio wrapper de API todas as vezes,
o projeto ollama_call simplifica significativamente o trabalho.
Esta é uma pequena biblioteca Python que permite enviar uma solicitação para um LLM local com uma função
e receba imediatamente uma resposta, inclusive no formato JSON.
Instalação
pip install ollama-call
Por que é necessário
- código mínimo para trabalhar com o modelo;
- resposta JSON estruturada para processamento posterior;
- conveniente para protótipos rápidos e MVPs;
- suporta saída de streaming, se necessário.
Usar exemplo
from ollama_call import ollama_call
response = ollama_call(
user_prompt="Hello, how are you?",
format="json",
model="gemma3:12b"
)
print(response)
Quando é especialmente útil
- você escreve scripts ou serviços em cima do Ollama;
- precisa de um formato de resposta previsível;
- não há desejo de conectar estruturas pesadas.
Total
ollama_call é um wrapper leve e claro para trabalhar com Ollama do Python.
Uma boa escolha se simplicidade e resultados rápidos forem importantes.
GitHub
https://github.com/demensdeum/ollama_call