Coverser – LLM を使用したインテリジェントなプロセス オブザーバー
Coverseer は、プロセスをインテリジェントに監視し、自動的に再起動するための Python CLI ツールです。従来のウォッチドッグ ソリューションとは異なり、LLM モデルを使用してアプリケーションのテキスト出力を分析し、終了コードだけでなくコンテキストに基づいて決定を行います。
このプロジェクトはオープンソースであり、GitHub で入手できます。
https://github.com/demensdeum/coverseer
カバーサーとは
Coverseer は、指定されたプロセスを開始し、その stdout と stderr を継続的に監視し、出力の最新のチャンクを (Ollama 経由で) ローカル LLM に供給し、プロセスが正しい実行状態にあるかどうかを判断します。
モデルがエラー、フリーズ、または不正な動作を検出した場合、Coverseer はプロセスを自動的に終了し、再度プロセスを開始します。
主な機能
- 出力のコンテキスト分析 – 終了コードをチェックする代わりに、LLM を使用してログ分析が使用されます
- 自動再起動 – 問題または異常終了が検出されるとプロセスが再起動されます
- ローカル モデルの操作 – データを外部サービスに転送せずに、Ollama を使用します
- 詳細なログ – すべてのアクションと決定が後続の診断のために記録されます
- スタンドアロン実行 – 単一の実行可能ファイル (.exe など) にパッケージ化できます
仕組み
<オル>
Coverser は CLI 経由で渡されたコマンドを実行します
プロセスからのテキスト出力を収集してバッファリングします
最後の行を LLM モデルに送信します
プロセス状態のセマンティック評価を取得します
必要に応じて、プロセスを終了して再起動します
このアプローチにより、標準の監視ツールでは検出できない問題を特定できます。
要件
- Python 3.12 以降
- Ollama がインストールされ実行中
- ロードされたモデル
gemma3:4b-it-qat
- Python の依存関係:
リクエスト、ollama-call
使用例
<コード>
python coverseer.py “ここにコマンドを入力してください”
コード>
たとえば、Ollama モデルのロードを観察すると、次のようになります。
<コード>
python coverseer.py “ollama pull gemma3:4b-it-qat”
コード>
Coverers はコマンド出力を分析し、失敗やエラーに自動的に対応します。
実際の応用
Coverers は、標準のスーパーバイザ メカニズムが不十分なシナリオで特に役立ちます。
- CI/CD パイプラインと自動ビルド
- バックグラウンド サービスとエージェント
- 実験的または不安定なプロセス
- 大量のテキスト ログを含むツール
- 自己修復が重要な開発環境
LLM アプローチがより効果的である理由
従来の監視システムは症状に対応します。 Coverser は行動を分析します。 LLM モデルは、プロセスが形式的に動作し続けている場合でも、エラー、警告、繰り返される障害、論理的な行き詰まりを認識できます。
これにより、監視がより正確になり、誤警報の数が減少します。
結論
Coverseer は、DevOps および自動化タスクにおける LLM の実際的な応用例です。これは、プロセス監視の従来の理解を拡張し、よりインテリジェントなコンテキストベースのアプローチを提供します。
このプロジェクトは、AI ツールを実験し、インフラストラクチャを複雑にすることなくシステムの安定性を向上させる方法を探している開発者にとって特に興味深いものとなるでしょう。