Go
オープンなコーディングモデルを利用するための低価格サブスクリプション。
OpenCode Goは低価格のサブスクリプションで、初月は5ドル、その後は月額10ドルで、人気のオープンなコーディングモデルに安定してアクセスできます。
GoはOpenCodeの他のプロバイダーと同様に機能します。OpenCode GoをサブスクライブしてAPIキーを取得します。これは完全に任意であり、OpenCodeを使用するために必須ではありません。
主に海外ユーザー向けに設計されており、世界中で安定してアクセスできるよう、モデルは米国、EU、シンガポールでホストされています。
背景
オープンモデルは非常に優れています。現在では、コーディングタスクにおいてプロプライエタリ(独自)モデルに近いパフォーマンスを達成しています。そして、多くのプロバイダーが競争力を持って提供できるため、通常ははるかに安価です。
しかし、これらのモデルに安定して低遅延でアクセスすることは困難な場合があります。プロバイダーによって品質や可用性が異なります。
この問題を解決するために、私たちはいくつかの取り組みを行いました:
- 一部のオープンモデルをテストし、それらを最適に実行する方法について、そのチームと話し合いました。
- 次に、これらが正しく提供されていることを確認するために、いくつかのプロバイダーと協力しました。
- 最後に、モデルとプロバイダーの組み合わせをベンチマークし、自信を持ってお勧めできるリストを作成しました。
OpenCode Goを使用すると、これらのモデルに初月は5ドル、その後は月額10ドルでアクセスできます。
仕組み
OpenCode Goは、OpenCodeの他のプロバイダーと同様に機能します。
- **OpenCode Zen**にサインインし、GoをサブスクライブしてAPIキーをコピーします。
- TUIで
/connectコマンドを実行し、OpenCode Goを選択して、APIキーを貼り付けます。 - TUIで
/modelsを実行すると、Goを通じて利用可能なモデルのリストが表示されます。
現在のモデルリストには以下が含まれます:
- GLM-5
- Kimi K2.5
- MiniMax M2.5
- MiniMax M2.7
新しいモデルをテストして追加するにつれて、モデルのリストは変更される場合があります。
利用制限
OpenCode Goには以下の制限が含まれています:
- 5時間の制限 — 12ドル分の利用
- 週間の制限 — 30ドル分の利用
- 月間の制限 — 60ドル分の利用
制限はドル単位で定義されています。つまり、実際のリクエスト数は使用するモデルによって異なります。MiniMax M2.5のような安価なモデルではより多くのリクエストが可能ですが、GLM-5のような高コストのモデルではリクエスト数が少なくなります。
以下の表は、一般的なGoの利用パターンに基づいた推定リクエスト数を示しています:
| GLM-5 | Kimi K2.5 | MiniMax M2.7 | MiniMax M2.5 | |
|---|---|---|---|---|
| 5時間あたりのリクエスト数 | 1,150 | 1,850 | 14,000 | 20,000 |
| 週間リクエスト数 | 2,880 | 4,630 | 35,000 | 50,000 |
| 月間リクエスト数 | 5,750 | 9,250 | 70,000 | 100,000 |
推定値は、観測された平均的なリクエストパターンに基づいています:
- GLM-5 — リクエストあたり 入力 700トークン、キャッシュ 52,000トークン、出力 150トークン
- Kimi K2.5 — リクエストあたり 入力 870トークン、キャッシュ 55,000トークン、出力 200トークン
- MiniMax M2.7/M2.5 — リクエストあたり 入力 300トークン、キャッシュ 55,000トークン、出力 125トークン
現在の利用状況は**コンソール**で追跡できます。
初期の利用状況やフィードバックから学ぶにつれて、利用制限は変更される場合があります。
制限を超えた利用
Zen残高にクレジットがある場合は、コンソールでUse balanceオプションを有効にすることができます。有効にすると、利用制限に達した後、リクエストをブロックする代わりに、GoはZen残高から利用するようになります。
エンドポイント
以下のAPIエンドポイントを通じて、Goモデルにアクセスすることもできます。
| Model | Model ID | Endpoint | AI SDK Package |
|---|---|---|---|
| GLM-5 | glm-5 | https://opencode.ai/zen/go/v1/chat/completions | @ai-sdk/openai-compatible |
| Kimi K2.5 | kimi-k2.5 | https://opencode.ai/zen/go/v1/chat/completions | @ai-sdk/openai-compatible |
| MiniMax M2.7 | minimax-m2.7 | https://opencode.ai/zen/go/v1/messages | @ai-sdk/anthropic |
| MiniMax M2.5 | minimax-m2.5 | https://opencode.ai/zen/go/v1/messages | @ai-sdk/anthropic |
OpenCode設定のmodel idは、opencode-go/<model-id>という形式を使用します。たとえば、Kimi K2.5の場合は、設定でopencode-go/kimi-k2.5を使用します。
プライバシー
このプランは主に海外ユーザー向けに設計されており、世界中で安定してアクセスできるよう、モデルは米国、EU、シンガポールでホストされています。
ご質問がある場合は、お問い合わせください。
目標
OpenCode Goを作成した目的は以下の通りです:
- 低価格のサブスクリプションで、より多くの人がAIコーディングを利用しやすくする。
- 最高のオープンなコーディングモデルに安定したアクセスを提供する。
- コーディングエージェントの利用向けにテストおよびベンチマークされたモデルを厳選する。
- OpenCodeで他のプロバイダーも使用できるようにすることで、ベンダーロックインをなくす。