如果您需要分析项目的源代码,但希望自动化该过程并使用计算机的本地功能,Bistr 实用程序可能是一个很好的解决方案。在本文中,我们将了解该实用程序如何帮助使用 Ollama 机器学习模型分析代码。

什么是 Bistr?
Bistr 是一个源代码分析实用程序,允许您集成本地 LLM(大语言模型)模型(例如 Ollama)来进行代码分析和处理。使用 Bistr,您可以解析各种编程语言(例如 Python、C、Java、JavaScript、HTML 等)的文件。
Bistr 使用该模型根据某些查询检查文件,例如,找到有关代码或其部分功能的问题的答案。这提供了有助于开发、测试和维护项目的结构化分析。
Bistr 如何工作?
- 加载状态:当您开始分析时,实用程序会检查之前是否已保存分析状态。这可以帮助您从上次停下的地方继续,而无需再次解析相同的文件。
- 代码分析:使用 Ollama 模型分析每个文件。该实用程序向模型发送请求以分析特定代码段。该模型返回有关响应查询的代码相关性的信息,并且还提供了为什么给定片段与任务相关的文本解释。
- 状态保存:分析完每个文件后,状态都会更新,以便您下次可以继续使用最新信息。
- 结果输出:所有分析结果都可以导出到 HTML 文件,其中包含一个表格,其中按相关性对文件进行排名,这有助于了解代码的哪些部分对于进一步分析最重要。
安装和启动
要使用 Bistr,您必须安装并运行 Ollama,这是一个在本地计算机上提供 LLM 模型的平台。下面介绍了在 macOS、Windows 和 Linux 上安装 Ollama 的说明。
从 git 下载最新版本的 Bistr:
https://github.com/demensdeum/Bistr/
安装Ollama和Bistr后,您可以运行代码分析。为此,您需要准备源代码并指定包含要分析的文件的目录的路径。该实用程序允许您从上次中断的地方继续分析,并且还提供以 HTML 格式导出结果的功能,以便于进一步分析。
运行分析的示例命令:
python bistr.py /path/to/code --model llama3.1:latest --output-html result.html --research "What is the purpose of this function?"
在这个团队中:
–model 指定用于分析的模型。
–output-html 指定 HTML 文件中分析结果的保存路径。
–research 允许您通过分析代码提出您想要回答的问题。
使用 Bistr 的好处
- 本地执行:分析在您的计算机上进行,无需连接到云服务,从而加快了流程。
- 灵活性:您可以分析不同编程语言的代码。
- 自动化:所有代码审查工作都是自动化的,这可以节省时间和精力,尤其是在处理大型项目时。