Ollama を使用していて、毎回独自の API ラッパーを作成したくない場合は、
ollama_call プロジェクトにより、作業が大幅に簡素化されます。
これは、1 つの関数でローカル LLM にリクエストを送信できる小さな Python ライブラリです。
JSON 形式などの応答をすぐに受け取ります。
インストール
pip install ollama-call
なぜ必要なのか
- モデルを操作するための最小限のコード;
- さらなる処理のための構造化された JSON レスポンス;
- ラピッドプロトタイプや MVP に便利です。
- 必要に応じてストリーミング出力をサポートします。
使用例
from ollama_call import ollama_call
response = ollama_call(
user_prompt="Hello, how are you?",
format="json",
model="gemma3:12b"
)
print(response)
特に役立つ場合
- Ollama 上でスクリプトまたはサービスを作成します。
- 予測可能な応答形式が必要です。
- 重いフレームワークを接続する必要はありません。
合計
ollama_call は、Python から Ollama を操作するための軽量で明確なラッパーです。
シンプルさと迅速な結果が重要な場合に適した選択です。
GitHub
https://github.com/demensdeum/ollama_call