Local Vibe コーディング: LM Studio、VS Code、Continue

コード (いわゆる Vibe コーディング) の作成にニューラル ネットワークを使用したいと考えていて、たとえば Nvidia RTX ビデオ カードを備えたかなり強力なコンピューターを持っている場合は、環境全体を完全に無料でマシンに展開できます。これにより、有料サブスクリプションの問題が解決され、コードがどこにも送信されないため、NDA の下でプロジェクトを安全に操作できるようになります。この投稿では、LM Studio、VS Code、Continue 拡張機能のローカル バンドルをアセンブルする方法について説明します。

ローカル Vibe コーディング用ツール

快適な作業のためには、次の 3 つの主要なコンポーネントが必要です。
LM ​​Studio: ローカル LLM をダウンロードして実行するための便利なアプリケーションです。 GGUF モデルの操作に伴うすべての複雑さを引き受け、OpenAI API と互換性のあるローカル サーバーを構築します。
VS Code: 人気があり、馴染みのあるコード エディタです。
Continue: ニューラル ネットワークを作業環境に直接統合する VS Code の拡張機能。チャットしたり、リファクタリング用のコードをハイライトしたり、オートコンプリートをサポートしたりできます。

ハードウェア要件

ローカル言語モデルはメモリを大量に消費します。
ビデオ カード (GPU): 8 GB VRAM 以上を搭載した Nvidia (70 ~ 80 億のパラメータを持つモデルで快適に作業するため)。重いモデルには 16 GB の VRAM が必要です。
ディスク容量: さまざまなダウンロード モデルを保存するために約 500 GB。

リンクの構成

セットアップ プロセスは非常に簡単で、ターミナルでの複雑な操作は必要ありません。
1. LM Studioをダウンロードしてインストールします。組み込みの検索を使用して、Qwen Codergemma3:12b などの軽量モデルを見つけます。
2. LM Studio で、「ローカルサーバー」タブに移動し、「サーバーの開始」をクリックします。デフォルトでは、`http://localhost:1234/v1` で起動します。
3. VS Code を開き、プラグイン ストアからContinue 拡張機能をインストールします。
4. Continue 構成ファイルを開き、LM Studio から「openai」プロバイダーとローカルサーバーのアドレスを指定して新しいモデルを追加します。

その後、「続行」サイドバーでローカル LLM と直接通信し、コードについて質問したり、新しいコンポーネントを生成したりできます。

なぜこれが機能するのでしょうか?

前に書いたように、LLM はフラット構造と WET (Write Everything Twice) コードの方が優れています。ローカル パラメーター モデルは、複雑なアーキテクチャの設計に関しては GPT-4 のような巨大モデルに劣るかもしれませんが、ボイラープレート コードの生成、単純な関数のリファクタリング、およびラピッド プロトタイピングについては十分以上の能力を備えています。

さらに、ローカル Vibe コーディングを使用すると、コードがマシンから離れることはありません。このため、この組み合わせは企業開発や機密データの取り扱いに最適です。

出力

ローカル ニューラル ネットワークは、プログラマーを完全に置き換えたり、複雑なシステムを設計したりすることはできません。ただし、LM Studio + VS Code + Continue の組み合わせにより、クラウド サービスからの独立性が提供され、プライバシーが維持されます。これは、小さなモデルの制限を我慢し、プロジェクト アーキテクチャを独立して制御する意欲がある場合、日常的なタスクに完全に機能する補助ツールです。

リンク

https://code.visualstudio.com/
https://lmstudio.ai/
https://continue.dev/

ソース

https://youtu.be/IqqCwhG46jY
https://www.youtube.com/watch?v=7AImkA96mE8