プロジェクトのソース コードを分析する必要があるが、プロセスを自動化し、コンピューターのローカル機能を使用したい場合は、Bistr ユーティリティが優れたソリューションとなります。この記事では、このユーティリティが Ollama 機械学習モデルを使用したコード分析にどのように役立つかを見ていきます。

Bistr とは何ですか?
Bistr は、コード分析と処理のために Ollama などのローカル LLM (大規模言語モデル) モデルを統合できるソース コード分析ユーティリティです。 Bistr を使用すると、Python、C、Java、JavaScript、HTML などのさまざまなプログラミング言語でファイルを解析できます。
Bistr は、このモデルを使用して、特定のクエリに対してファイルをチェックします。たとえば、コードまたはその一部の機能に関する質問に対する答えを見つけます。これにより、プロジェクトの開発、テスト、保守に役立つ構造化分析が提供されます。
Bistr はどのように機能しますか?
- 状態の読み込み: 分析を開始すると、ユーティリティは分析状態が以前に保存されているかどうかを確認します。これにより、同じファイルを再度解析することなく、中断したところから再開できるようになります。
- コード分析: 各ファイルは Ollama モデルを使用して分析されます。ユーティリティは、コードの特定の部分を分析するためにモデルにリクエストを送信します。このモデルは、クエリに応じてコードの関連性に関する情報を返します。また、特定のフラグメントがタスクに関連する理由をテキストで説明します。
- 状態の保存: 各ファイルの分析後に状態が更新されるため、次回は最新の情報を使用して続行できます。
- 結果の出力: すべての分析結果は HTML ファイルにエクスポートできます。このファイルには、関連性によるファイルのランキングを含む表が含まれており、コードのどの部分がさらなる分析にとって最も重要であるかを理解するのに役立ちます。
インストールと起動
Bistr を使用するには、ローカル マシンに LLM モデルを提供するプラットフォームである Ollama をインストールして実行する必要があります。 macOS、Windows、Linux 用の Ollama をインストールする手順を以下に説明します。
Bistr の最新バージョンを git からダウンロードします。
https://github.com/demensdeum/Bistr/
Ollama と Bistr をインストールした後、コード分析を実行できます。これを行うには、ソース コードを準備し、分析するファイルが含まれるディレクトリへのパスを指定する必要があります。このユーティリティを使用すると、中断したところから分析を続けることができ、さらに分析を容易にするために結果を HTML 形式でエクスポートする機能も提供します。
分析を実行するコマンドの例:
python bistr.py /path/to/code --model llama3.1:latest --output-html result.html --research "What is the purpose of this function?"
 
このチームでは:
–model は、分析に使用するモデルを指定します。
–output-html は、解析結果を HTML ファイルに保存するパスを指定します。
–research を使用すると、コードを分析して答えてほしい質問をすることができます。
Bistr を使用する利点
- ローカル実行: クラウド サービスに接続する必要がなく、分析がコンピュータ上で実行されるため、プロセスが高速化されます。
- 柔軟性: さまざまなプログラミング言語でコードを分析できます。
- 自動化: すべてのコード レビュー作業が自動化されるため、特に大規模なプロジェクトで作業する場合に時間と労力が節約されます。