ollama-call

Если вы используете Ollama и не хотите каждый раз писать собственную обвязку вокруг API,
проект ollama_call заметно упрощает работу.

Это небольшая Python-библиотека, которая позволяет отправить запрос к локальной LLM одной функцией
и сразу получить ответ, в том числе в JSON-формате.

Установка

pip install ollama-call

Зачем он нужен

  • минимальный код для работы с моделью;
  • структурированный JSON-ответ для дальнейшей обработки;
  • удобен для быстрых прототипов и MVP;
  • поддерживает потоковый вывод при необходимости.

Пример использования

from ollama_call import ollama_call

response = ollama_call(
    user_prompt="Hello, how are you?",
    format="json",
    model="gemma3:12b"
)

print(response)

Когда особенно полезен

  • вы пишете скрипты или сервисы поверх Ollama;
  • нужен предсказуемый формат ответа;
  • нет желания подключать тяжёлые фреймворки.

Итог

ollama_call — лёгкая и понятная обёртка для работы с Ollama из Python.
Хороший выбор, если важны простота и быстрый результат.

GitHub
https://github.com/demensdeum/ollama_call