AIZEN NEWS

Claude Codeは月最大200ドル。一方でGooseは同等機能を無料で提供

2026.01.19 VentureBeat
人工知能を用いたコーディング支援の普及に伴い、商用サービスの高額な料金が問題になっている。Anthropicの端末ベースAIエージェント「Claude Code」は自律的にコードを書き、デバッグし、デプロイまで行える点で開発者の注目を集めたが、利用料は利用状況により月20〜200ドルと高額で、最近のレート制限の変更は開発者コミュニティの反発を招いている。

これに対してBlock(旧Square)が開発したオープンソースのAIエージェント「Goose」が注目を集めている。Gooseはユーザーのローカルマシン上で動作でき、サブスクリプション費用やクラウド依存、一定時間ごとにリセットされるレート制限が無いことを売りにしている。GooseはGitHubで2万6,100以上のスター、362人のコントリビュータ、これまでに102回のリリースを記録しており、2026年1月19日にバージョン1.20.1が公開された。

Claude Codeの料金体系は混乱を招いている。無料プランはアクセス不可、Proプランは年払17ドル(または月払20ドル)で5時間ごとに10〜40プロンプトという制限があり、実際の集中作業では数分で使い切るとの声が上がっている。月額100ドル、200ドルのMaxプランはより多いプロンプト枠と最高性能モデル(Claude 4.5 Opus)へのアクセスを提供するが、Anthropicはその後「週単位のレート制限」も導入し、トークンベースでの制限は実セッションあたりおよそProで44,000トークン、200ドルプランで約220,000トークン相当になるとの独立分析もある。Redditや開発者フォーラムでは、30分程度の集中的なコーディングで上限に達したとする報告や、サブスクリプション解約の動きが見られる。Anthropicはこれらの制限がごく一部(5%未満)のユーザーを想定したものだと説明しているが、その「5%」がMax加入者の5%なのか全ユーザーの5%なのかは明確にしていない。

Gooseはアプローチが異なる。ローカルで実行する「on-machine AI agent」として設計され、ユーザーがダウンロードして管理するオープンソースの言語モデルを利用できる点が特徴だ。AnthropicやOpenAI、Googleのモデルに接続することも可能で、GroqやOpenRouterのようなサービス経由や、Ollamaのようにモデルをローカルで実行する経路もサポートする。モデルに依存しない(モデル・アグノスティック)設計により、サブスクリプション料や外部サーバーへのコード送信を回避できる。

Gooseはコマンドラインやデスクトップアプリとして動作し、プロジェクトの初期構築、コード実行、デバッグ、複数ファイルにまたがるワークフローのオーケストレーション、外部APIとの連携など、比較的高度な自律的タスクを実行できる。これは言語モデルが外部システムに対して具体的なアクションを要求する「ツールコーリング(関数呼び出し)」に依存しており、性能は利用する言語モデルに左右される。Berkeleyのファンクションコーリング評価ではAnthropicのClaude 4が高評価だが、MetaのLlama系列、AlibabaのQwen、GoogleのGemma系やDeepSeekの推論重視モデルなど、オープンソース側も急速に追いつきつつある。

ローカル環境でGooseを使うための主要な構成要素は、Goose本体、Ollama(ローカルでオープンモデルを実行するツール)、および互換性のある言語モデルだ。手順は大きく三つで、Ollamaをインストールしてモデル(例:Qwen 2.5)を動かし、GooseをインストールしてプロバイダをOllamaのAPIホスト(デフォルトはhttp://localhost:11434)に設定するだけで、外部依存のない環境が整う。

ただしローカル実行には計算資源の制約がある。Blockのドキュメントは32GBのRAMを「大きめモデルの実用的な基準」として示しており、GPUを用いる場合はVRAMがボトルネックになる。小型モデルは16GB程度でも動作するものがあるため、まずは軽いモデルで試し、必要に応じて拡張するのが現実的だ。消費者向けのエントリーレベル機では限界があるが、32GB搭載のMacBook Proなどでは十分に扱えるという指摘がある。

性能面の比較ではトレードオフが明確だ。品質面ではAnthropicのOpus 4.5が依然として最上位であり、特に大規模で複雑なコードベースの理解や出力の品質で優位を保つ。コンテキストウィンドウではClaude Sonnet 4.5が最大100万トークンを提供する一方、ローカルモデルはデフォルトで4,096〜8,192トークン程度に制限されることが多い。処理速度やツールの磨き込み度合いでもクラウドサービスが有利な点がある。

市場環境ではCursorやGitHub Copilot、Amazon CodeWhispererなど多数の選択肢が存在する中で、Gooseは「真の自律性」「モデル非依存」「ローカル動作」「無料」という独自の価値を打ち出している。オープンソースのモデル性能が向上し続ければ、高額プランの優位性は薄れ、Anthropicらは機能やユーザー体験、統合面で差別化を図る必要に迫られる可能性がある。

まとめると、最良のモデル性能を求める開発者であれば有料サービスを選ぶ理由が残るが、コスト、プライバシー、オフラインでの利用、柔軟性を優先する開発者にとってGooseは現実的な代替手段となっている。Gooseは設定やハードウェア面でのハードルがある一方で、コア機能が無料で利用可能な点は多くの開発者にとって魅力的だ。
関連カテゴリ
関連記事(生成AI)