Coverseer – intelligenter Prozessbeobachter mit LLM
Coverseer ist ein Python-CLI-Tool zur intelligenten Überwachung und zum automatischen Neustart von Prozessen. Im Gegensatz zu klassischen Watchdog-Lösungen analysiert es die Textausgabe der Anwendung mithilfe des LLM-Modells und trifft Entscheidungen basierend auf dem Kontext und nicht nur auf dem Exit-Code.
Das Projekt ist Open Source und auf GitHub verfügbar:
https://github.com/demensdeum/coverseer
Was ist Coverser?
Coverseer startet den angegebenen Prozess, überwacht kontinuierlich dessen stdout und stderr, leitet die neuesten Ausgabeblöcke an das lokale LLM (über Ollama) weiter und stellt fest, ob sich der Prozess im korrekten Ausführungszustand befindet.
Wenn das Modell einen Fehler, ein Einfrieren oder ein falsches Verhalten erkennt, bricht Coverseer den Prozess automatisch ab und startet ihn erneut.
Hauptfunktionen
- Kontextbezogene Analyse der Ausgabe – Anstelle der Überprüfung des Exit-Codes wird eine Protokollanalyse mit LLM verwendet
- Automatischer Neustart – der Prozess wird neu gestartet, wenn Probleme oder ein abnormaler Abbruch erkannt werden
- Arbeiten mit lokalen Modellen – Ollama wird verwendet, ohne Daten an externe Dienste zu übertragen
- Detaillierte Protokollierung – alle Aktionen und Entscheidungen werden zur späteren Diagnose aufgezeichnet
- Eigenständige Ausführung – kann in eine einzelne ausführbare Datei (z. B. .exe) gepackt werden
Wie es funktioniert
- Coverseer führt den über die CLI übergebenen Befehl aus
- Sammelt und puffert die Textausgabe des Prozesses
- Sendet die letzten Zeilen an das LLM-Modell
- Erhält eine semantische Bewertung des Prozessstatus
- Beendet den Prozess bei Bedarf und startet ihn neu
Mit diesem Ansatz können Sie Probleme identifizieren, die von Standardüberwachungstools nicht erkannt werden können.
Anforderungen
- Python 3.12 oder höher
- Ollama installiert und läuft
- Geladenes Modell
gemma3:4b-it-qat - Python-Abhängigkeiten:
requests,ollama-call
Beispiel verwenden
python Coverseer.py „Ihr Befehl hier“
Beobachten Sie beispielsweise das Laden des Ollama-Modells:
Python Coverseer.py „Ollama Pull Gemma3:4b-it-qat“
Coverseer analysiert die Befehlsausgabe und reagiert automatisch auf Ausfälle oder Fehler.
Praktische Anwendung
Coverseer ist besonders nützlich in Szenarien, in denen Standard-Supervisor-Mechanismen nicht ausreichen:
- CI/CD-Pipelines und automatische Builds
- Hintergrunddienste und Agenten
- Experimentelle oder instabile Prozesse
- Tools mit großen Mengen an Textprotokollen
- Entwicklungsumgebungen, in denen Selbstheilung wichtig ist
Warum der LLM-Ansatz effektiver ist
Klassische Überwachungssysteme reagieren auf Symptome. Coverser analysiert Verhalten. Das LLM-Modell ist in der Lage, Fehler, Warnungen, wiederholte Ausfälle und logische Sackgassen zu erkennen, selbst wenn der Prozess formal weiterläuft.
Dadurch wird die Überwachung genauer und die Zahl der Fehlalarme verringert.
Schlussfolgerung
Coverseer ist ein klares Beispiel für die praktische Anwendung von LLM bei DevOps und Automatisierungsaufgaben. Es erweitert das traditionelle Verständnis der Prozessüberwachung und bietet einen intelligenteren, kontextbasierten Ansatz.
Das Projekt wird insbesondere für Entwickler interessant sein, die mit KI-Tools experimentieren und nach Möglichkeiten suchen, die Stabilität ihrer Systeme zu verbessern, ohne die Infrastruktur zu verkomplizieren.