chamada de ollama

Se você usa Ollama e não quer escrever seu próprio wrapper de API todas as vezes,
o projeto ollama_call simplifica significativamente o trabalho.

Esta é uma pequena biblioteca Python que permite enviar uma solicitação para um LLM local com uma função
e receba imediatamente uma resposta, inclusive no formato JSON.

Instalação

pip install ollama-call

Por que é necessário

  • código mínimo para trabalhar com o modelo;
  • resposta JSON estruturada para processamento posterior;
  • conveniente para protótipos rápidos e MVPs;
  • suporta saída de streaming, se necessário.

Usar exemplo

from ollama_call import ollama_call

response = ollama_call(
    user_prompt="Hello, how are you?",
    format="json",
    model="gemma3:12b"
)

print(response)

Quando é especialmente útil

  • você escreve scripts ou serviços em cima do Ollama;
  • precisa de um formato de resposta previsível;
  • não há desejo de conectar estruturas pesadas.

Total

ollama_call é um wrapper leve e claro para trabalhar com Ollama do Python.
Uma boa escolha se simplicidade e resultados rápidos forem importantes.

GitHub
https://github.com/demensdeum/ollama_call