Si vous avez besoin d’analyser le code source d’un projet, mais que vous souhaitez automatiser le processus et utiliser la puissance locale de votre ordinateur, l’utilitaire Bistr peut être une excellente solution. Dans cet article, nous verrons comment cet utilitaire permet d’analyser le code à l’aide du modèle d’apprentissage automatique Ollama.

Qu’est-ce que Bistr ?
Bistr est un utilitaire d’analyse de code source qui vous permet d’intégrer un modèle LLM (grand modèle de langage) local, tel qu’Ollama, pour l’analyse et le traitement du code. Avec Bistr, vous pouvez analyser des fichiers dans divers langages de programmation tels que Python, C, Java, JavaScript, HTML, etc.
Bistr utilise le modèle pour vérifier les fichiers par rapport à certaines requêtes, par exemple pour trouver une réponse à une question sur la fonctionnalité du code ou d’une partie de celui-ci. Cela fournit une analyse structurée qui aide à développer, tester et maintenir des projets.
Comment fonctionne Bistr ?
- Chargement de l’état : lorsque vous démarrez une analyse, l’utilitaire vérifie si l’état de l’analyse a été précédemment enregistré. Cela vous permet de reprendre là où vous vous étiez arrêté sans avoir à analyser à nouveau les mêmes fichiers.
- Analyse du code : chaque fichier est analysé à l’aide du modèle Ollama. L’utilitaire envoie une requête au modèle pour analyser un morceau de code spécifique. Le modèle renvoie des informations sur la pertinence du code en réponse à la requête et fournit également une explication textuelle de la raison pour laquelle un fragment donné est pertinent pour la tâche.
- Sauvegarde de l’état : après l’analyse de chaque fichier, l’état est mis à jour afin que vous puissiez continuer avec les dernières informations la prochaine fois.
- Sortie des résultats : tous les résultats d’analyse peuvent être exportés vers un fichier HTML, qui contient un tableau avec un classement des fichiers par pertinence, ce qui permet de comprendre quelles parties du code sont les plus importantes pour une analyse plus approfondie.
Installation et lancement
Pour utiliser Bistr, vous devez installer et exécuter Ollama, une plateforme qui fournit des modèles LLM sur votre ordinateur local. Les instructions d’installation d’Ollama pour macOS, Windows et Linux sont décrites ci-dessous.
Téléchargez la dernière version de Bistr depuis git :
https://github.com/demensdeum/Bistr/
Après avoir installé Ollama et Bistr, vous pouvez exécuter une analyse de code. Pour ce faire, vous devez préparer le code source et préciser le chemin d’accès au répertoire contenant les fichiers à analyser. L’utilitaire vous permet de poursuivre l’analyse là où vous l’avez arrêtée et offre également la possibilité d’exporter les résultats au format HTML pour faciliter une analyse plus approfondie.
Exemple de commande pour exécuter l’analyse :
python bistr.py /path/to/code --model llama3.1:latest --output-html result.html --research "What is the purpose of this function?"
Dans cette équipe :
–model spécifie le modèle à utiliser pour l’analyse.
–output-html spécifie le chemin d’enregistrement des résultats d’analyse dans un fichier HTML.
–research vous permet de poser une question à laquelle vous souhaitez répondre en analysant le code.
Avantages de l’utilisation de Bistr
- Exécution locale : l’analyse est effectuée sur votre ordinateur sans qu’il soit nécessaire de se connecter aux services cloud, ce qui accélère le processus.
- Flexibilité : vous pouvez analyser le code dans différents langages de programmation.
- Automatisation : tous les travaux de révision du code sont automatisés, ce qui permet d’économiser du temps et des efforts, en particulier lorsque vous travaillez sur des projets de grande envergure.