Если вы используете Ollama и не хотите каждый раз писать собственную обвязку вокруг API,
проект ollama_call заметно упрощает работу.
Это небольшая Python-библиотека, которая позволяет отправить запрос к локальной LLM одной функцией
и сразу получить ответ, в том числе в JSON-формате.
Установка
pip install ollama-call
Зачем он нужен
- минимальный код для работы с моделью;
- структурированный JSON-ответ для дальнейшей обработки;
- удобен для быстрых прототипов и MVP;
- поддерживает потоковый вывод при необходимости.
Пример использования
from ollama_call import ollama_call
response = ollama_call(
user_prompt="Hello, how are you?",
format="json",
model="gemma3:12b"
)
print(response)
Когда особенно полезен
- вы пишете скрипты или сервисы поверх Ollama;
- нужен предсказуемый формат ответа;
- нет желания подключать тяжёлые фреймворки.
Итог
ollama_call — лёгкая и понятная обёртка для работы с Ollama из Python.
Хороший выбор, если важны простота и быстрый результат.
GitHub
https://github.com/demensdeum/ollama_call