Wenn Sie den Quellcode eines Projekts analysieren müssen, den Prozess aber automatisieren und die lokale Leistung Ihres Computers nutzen möchten, kann das Dienstprogramm Bistr eine großartige Lösung sein. In diesem Artikel werden wir uns ansehen, wie dieses Dienstprogramm bei der Analyse von Code mithilfe des Ollama-Modells für maschinelles Lernen hilft.

Was ist Bistr?
Bistr ist ein Dienstprogramm zur Quellcode-Analyse, mit dem Sie ein lokales LLM-Modell (Large Language Model) wie Ollama zur Code-Analyse und -Verarbeitung integrieren können. Mit Bistr können Sie Dateien in verschiedenen Programmiersprachen wie Python, C, Java, JavaScript, HTML und mehr analysieren.
Bistr nutzt das Modell, um Dateien anhand bestimmter Abfragen zu prüfen, beispielsweise um eine Antwort auf eine Frage zur Funktionalität des Codes oder eines Teils davon zu finden. Dies bietet eine strukturierte Analyse, die bei der Entwicklung, Prüfung und Wartung von Projekten hilft.
Wie funktioniert Bistr?
- Ladestatus: Wenn Sie eine Analyse starten, prüft das Dienstprogramm, ob der Analysestatus zuvor gespeichert wurde. Dies hilft Ihnen, dort weiterzumachen, wo Sie aufgehört haben, ohne dieselben Dateien erneut analysieren zu müssen.
- Code-Analyse: Jede Datei wird mithilfe des Ollama-Modells analysiert. Das Dienstprogramm sendet eine Anfrage an das Modell, um einen bestimmten Codeabschnitt zu analysieren. Das Modell gibt als Antwort auf die Abfrage Informationen über die Relevanz des Codes zurück und liefert außerdem eine Texterklärung, warum ein bestimmtes Fragment für die Aufgabe relevant ist.
- Statusspeicherung: Nachdem jede Datei analysiert wurde, wird der Status aktualisiert, sodass Sie beim nächsten Mal mit den neuesten Informationen fortfahren können.
- Ergebnisausgabe: Alle Analyseergebnisse können in eine HTML-Datei exportiert werden, die eine Tabelle mit einer Rangfolge der Dateien nach Relevanz enthält, die hilft zu verstehen, welche Teile des Codes für die weitere Analyse am wichtigsten sind.
Installation und Start
Um Bistr verwenden zu können, müssen Sie Ollama installieren und ausführen, eine Plattform, die LLM-Modelle auf Ihrem lokalen Computer bereitstellt. Nachfolgend werden Anweisungen zur Installation von Ollama für macOS, Windows und Linux beschrieben.
Laden Sie die neueste Version von Bistr von Git herunter:
https://github.com/demensdeum/Bistr/
Nach der Installation von Ollama und Bistr können Sie die Codeanalyse ausführen. Dazu müssen Sie den Quellcode vorbereiten und den Pfad zum Verzeichnis angeben, das die zu analysierenden Dateien enthält. Das Dienstprogramm ermöglicht es Ihnen, die Analyse dort fortzusetzen, wo Sie aufgehört haben, und bietet außerdem die Möglichkeit, Ergebnisse im HTML-Format zu exportieren, um die weitere Analyse zu erleichtern.
Beispielbefehl zum Ausführen der Analyse:
python bistr.py /path/to/code --model llama3.1:latest --output-html result.html --research "What is the purpose of this function?"
In diesem Team:
–model gibt das für die Analyse zu verwendende Modell an.
–output-html gibt den Pfad zum Speichern der Analyseergebnisse in einer HTML-Datei an.
–research ermöglicht es Ihnen, eine Frage zu stellen, deren Antwort Sie durch die Analyse des Codes beantworten möchten.
Vorteile der Verwendung von Bistr
- Lokale Ausführung: Die Analyse erfolgt auf Ihrem Computer, ohne dass eine Verbindung zu Cloud-Diensten erforderlich ist, was den Prozess beschleunigt.
- Flexibilität: Sie können Code in verschiedenen Programmiersprachen analysieren.
- Automatisierung: Die gesamte Codeüberprüfung erfolgt automatisiert, was insbesondere bei der Arbeit mit großen Projekten Zeit und Aufwand spart.