はじめに
個人的に、AIコードエディタの選択肢が増えてきたのは良いことだと思っています。
Voidは「オープンソースのCursor代替」として登場したAIコードエディタです。GitHubで2.7万スターを獲得していて、VS Codeをベースにしたフォーク。正直なところ、最初は「またCursorクローンか」と思ったんですよ。でも調べてみると、プライバシーへのアプローチが根本的に違う。
CursorやWindsurfは、ユーザーのメッセージを独自のバックエンドサーバーを経由して処理します。一方Voidは、LLMプロバイダーに直接接続する設計。つまり、Anthropicのサーバーに自分のAPIキーで直接つなげる。30代になって思うのは、業務でAIエディタを使う場合、このデータの流れは意外と重要だということ。コードがどこを通るか、気にする人は気にしますからね。
Voidとは
VoidはVS Codeをフォークして作られたAIコードエディタです。Y Combinatorの支援を受けて開発されており、「Full privacy. Fully-featured」をコンセプトに掲げています。
特徴的なのは、プライバシーファーストな設計思想。CursorやWindsurfのように独自バックエンドを通さず、ユーザーが直接LLMプロバイダーに接続する。APIキーは自分で管理するので、コードが第三者のサーバーを経由しない。
主な技術スタック:
- TypeScript: 95.3%
- CSS、JavaScript、Rust
VS Codeベースなので、既存の拡張機能や設定との互換性も確保されています。
特徴・メリット
1. 完全なプライバシー保護
これ、意外と大きいんですよ。
CursorやWindsurfを使う場合、コードはそれぞれのサーバーを経由する。企業のセキュリティポリシー的に、これがNGというケースは実際にある。Voidなら、LLMプロバイダーに直接つながるので、そのリスクが軽減される。
- メッセージはプロバイダーに直接送信
- データ保持なし
- APIキーは自己管理
2. 複数のAIモデルに対応
接続できるプロバイダー:
- Claude(Anthropic)
- OpenAI(GPT-4など)
- Gemini(Google)
- Grok(xAI)
- DeepSeek
- ローカルLLM(Ollama経由)
1つのエディタで、用途に応じてモデルを切り替えられる。コスパ的に、安いモデルと高性能モデルを使い分けられるのは嬉しい。
3. ローカルLLM対応
ここが個人的に刺さったポイント。
DeepSeek、Llama、Gemma、Qwen、Mistralなど、オープンソースのモデルをローカルでホストできる。完全にオフラインでAIコーディング支援が受けられる。機密性の高いプロジェクトや、ネット環境が不安定な場所での作業に便利。
4. VS Codeとの互換性
VS Codeのフォークなので:
- 既存の拡張機能がそのまま使える
- 設定ファイルの互換性あり
- キーバインドも同じ
移行コストが低いのはQOL上がるポイント。
5. Agent ModeとMCP対応
最近のAIエディタに求められる機能は一通り揃っています:
- Agent Mode:自律的にタスクを実行
- MCP(Model Context Protocol)対応
- Checkpoints:変更履歴の管理と可視化
インストール方法
ダウンロード
公式サイトからベータ版をダウンロードできます:
https://voideditor.com
Windows、macOS、Linuxに対応。
VS Codeからの移行
- Voidをインストール
- 起動時にVS Codeの設定をインポートするか聞かれる
- 拡張機能も自動で移行可能
既存のVS Code環境をほぼそのまま引き継げます。
基本的な使い方
APIキーの設定
初回起動時、使用するLLMプロバイダーのAPIキーを設定します。
設定画面から:
- Void Settings を開く
- 使用するプロバイダーを選択
- APIキーを入力
複数のプロバイダーを登録して、切り替えて使うこともできます。
Chat機能
サイドバーからChatパネルを開いて、コードについて質問できます。
// 例:選択したコードについて質問
「この関数のエラーハンドリングを改善するには?」
コンテキストとして、開いているファイルや選択範囲を自動で認識。
Quick Edit
コード上で選択して、インライン編集を指示できます。
1. コードを選択
2. Cmd/Ctrl + K
3. 編集指示を入力
4. 差分を確認して適用
Cursorの機能とほぼ同じ操作感。
Tab補完
オートコンプリート機能も搭載。入力中に予測候補が表示されます。
Agent Mode
複数ファイルにまたがる変更や、タスクの自動実行が可能。
「このプロジェクトにESLint設定を追加して」
必要なファイルの作成、package.jsonの更新などを自動で実行。
実践的なユースケース
ローカルLLMでの完全オフライン開発
Ollamaと組み合わせると、完全にローカルでAI支援が受けられます。
# Ollamaのインストール
curl -fsSL https://ollama.com/install.sh | sh
# モデルのダウンロード
ollama pull deepseek-coder:6.7b
Voidの設定でOllamaを選択すれば、ネットワーク接続なしでコーディング支援が使える。
企業での利用
セキュリティポリシーが厳しい環境でも:
- 承認されたAPIプロバイダーのみ接続
- ローカルLLMで完全にクローズド運用
- データの流れを完全にコントロール
監査対応やコンプライアンス面で、説明しやすいのがメリット。
複数モデルの使い分け
- 簡単な質問 → GPT-3.5(安い)
- 複雑なリファクタリング → Claude 3.5(高性能)
- オフライン作業 → ローカルLLM
コスト最適化しながら、必要な場面で高性能モデルを使う運用が可能。
現在の開発状況について
正直に書いておくと、Voidは現在、新しいAIコーディングの実験に注力するため、IDE開発が一時停止中とのこと。
GitHubのREADMEにも:
IDE development is currently paused while we experiment with new AI coding ideas.
新リリースの情報はDiscordで発信されるようです。
これを聞いて「じゃあ使えないじゃん」と思うかもしれませんが、現状のベータ版でも基本機能は動作します。ただ、今後の開発動向は注視しておいた方がいい。
Cursorとの比較
| 項目 | Void | Cursor |
|---|---|---|
| 価格 | 無料(APIキー自己負担) | 月額$20(Pro) |
| データの流れ | LLMに直接接続 | Cursorサーバー経由 |
| ローカルLLM | 対応 | 非対応 |
| 安定性 | ベータ版 | プロダクションレベル |
| 開発状況 | 一時停止中 | 活発 |
Cursorの方が安定していて機能も豊富。ただ、プライバシーやコスト面でVoidが優位な場面もある。
まとめ
Voidを試してみた感想:
- プライバシー: データが第三者サーバーを経由しない安心感
- 柔軟性: 複数のLLMを切り替えて使える
- ローカルLLM: オフライン運用が可能
- 移行コスト: VS Codeからほぼそのまま移行できる
- 注意点: 開発一時停止中なので、今後の動向に注意
正直なところ、現時点でCursorから乗り換える必要があるかというと、微妙なところ。Cursorの方が機能は充実しているし、安定している。
ただ、「コードを外部サーバーに送りたくない」「ローカルLLMを使いたい」「APIキー直接接続でコスト管理したい」という人には、検討の価値はあると思います。
開発再開後の進化に期待しつつ、今は選択肢の1つとして知っておくのが良いかもしれません。
