Coverseer – observateur de processus intelligent utilisant LLM
Coverseer est un outil Python CLI permettant de surveiller intelligemment et de redémarrer automatiquement les processus. Contrairement aux solutions de surveillance classiques, elle analyse le texte de l’application à l’aide du modèle LLM et prend des décisions basées sur le contexte, et pas seulement sur le code de sortie.
Le projet est open source et disponible sur GitHub :
https://github.com/demensdeum/coverseer
Qu’est-ce que Coverser
Coverseer démarre le processus spécifié, surveille en permanence sa sortie standard et son stderr, transmet les derniers morceaux de sortie au LLM local (via Ollama) et détermine si le processus est dans le bon état d’exécution.
Si le modèle détecte une erreur, un blocage ou un comportement incorrect, Coverseer met automatiquement fin au processus et le redémarre.
Fonctionnalités clés
- Analyse contextuelle des résultats : au lieu de vérifier le code de sortie, l’analyse des journaux est utilisée à l’aide de LLM
- Redémarrage automatique : le processus est redémarré lorsque des problèmes ou une interruption anormale sont détectés
- Travailler avec des modèles locaux – Ollama est utilisé sans transférer de données vers des services externes
- Journalisation détaillée : toutes les actions et décisions sont enregistrées pour les diagnostics ultérieurs
- Exécution autonome : peut être regroupée dans un seul fichier exécutable (par exemple, .exe)
Comment ça marche
- Coverseer exécute la commande transmise via la CLI
- Collecte et met en mémoire tampon le texte généré par le processus
- Envoie les dernières lignes au modèle LLM
- Obtient une évaluation sémantique de l’état du processus
- Si nécessaire, termine et redémarre le processus
Cette approche vous permet d’identifier les problèmes qui ne peuvent pas être détectés par les outils de surveillance standards.
Exigences
- Python 3.12 ou version ultérieure
- Ollama installé et en cours d’exécution
- Modèle chargé
gemma3:4b-it-qat
- Dépendances Python :
requests, ollama-call
Utiliser un exemple
python coverseer.py "votre commande ici"
Par exemple, en regardant le modèle Ollama charger :
python coverseer.py "ollama pull gemma3:4b-it-qat"
Coverseer analysera le résultat de la commande et répondra automatiquement aux échecs ou aux erreurs.
Application pratique
Coverseer est particulièrement utile dans les scénarios où les mécanismes de supervision standards sont insuffisants :
- Pipelines CI/CD et builds automatiques
- Services et agents d’arrière-plan
- Processus expérimentaux ou instables
- Outils avec de grandes quantités de journaux de texte
- Environnements de développement dans lesquels l’auto-réparation est importante
Pourquoi l’approche LLM est plus efficace
Les systèmes de surveillance classiques réagissent aux symptômes. Coverser analyse le comportement. Le modèle LLM est capable de reconnaître les erreurs, les avertissements, les échecs répétés et les impasses logiques même dans les cas où le processus continue formellement de fonctionner.
Cela rend la surveillance plus précise et réduit le nombre de fausses alarmes.
Conclusion
Coverseer est un exemple clair de l’application pratique du LLM dans les tâches DevOps et d’automatisation. Il développe la compréhension traditionnelle de la surveillance des processus et propose une approche plus intelligente et basée sur le contexte.
Le projet sera particulièrement intéressant pour les développeurs qui expérimentent des outils d’IA et recherchent des moyens d’améliorer la stabilité de leurs systèmes sans compliquer l’infrastructure.