Go
Kostengünstiges Abonnement für offene Coding-Modelle.
OpenCode Go ist ein kostengünstiges Abonnement — 5 $ für deinen ersten Monat, danach 10 $/Monat —, das dir zuverlässigen Zugriff auf beliebte offene Coding-Modelle bietet.
Go funktioniert wie jeder andere Provider in OpenCode. Du abonnierst OpenCode Go und erhältst deinen API-Key. Es ist völlig optional und du musst es nicht nutzen, um OpenCode zu verwenden.
Es wurde primär für internationale Nutzer entwickelt, wobei die Modelle für einen stabilen weltweiten Zugriff in den USA, der EU und Singapur gehostet werden.
Hintergrund
Offene Modelle sind richtig gut geworden. Sie erreichen bei Coding-Aufgaben mittlerweile eine Leistung, die nahe an proprietäre Modelle herankommt. Und da viele Provider sie wettbewerbsfähig anbieten können, sind sie in der Regel viel günstiger.
Allerdings kann es schwierig sein, zuverlässigen Zugriff mit geringer Latenz auf sie zu erhalten. Provider variieren in Qualität und Verfügbarkeit.
Um dies zu beheben, haben wir einige Dinge getan:
- Wir haben eine ausgewählte Gruppe offener Modelle getestet und mit ihren Teams darüber gesprochen, wie man sie am besten ausführt.
- Anschließend haben wir mit einigen Providern zusammengearbeitet, um sicherzustellen, dass diese korrekt bereitgestellt werden.
- Zuletzt haben wir die Kombination aus Modell und Provider einem Benchmark unterzogen und eine Liste erstellt, die wir mit gutem Gewissen empfehlen können.
OpenCode Go bietet dir Zugriff auf diese Modelle für 5 $ im ersten Monat, danach 10 $/Monat.
Wie es funktioniert
OpenCode Go funktioniert wie jeder andere Provider in OpenCode.
- Du meldest dich bei OpenCode Zen an, abonnierst Go und kopierst deinen API-Key.
- Du führst den Befehl
/connectin der TUI aus, wählstOpenCode Gound fügst deinen API-Key ein. - Führe
/modelsin der TUI aus, um die Liste der über Go verfügbaren Modelle zu sehen.
Die aktuelle Liste der Modelle umfasst:
- GLM-5
- Kimi K2.5
- MiniMax M2.5
- MiniMax M2.7
Die Liste der Modelle kann sich ändern, während wir neue testen und hinzufügen.
Nutzungslimits
OpenCode Go beinhaltet die folgenden Limits:
- 5-Stunden-Limit — 12 $ Nutzung
- Wöchentliches Limit — 30 $ Nutzung
- Monatliches Limit — 60 $ Nutzung
Limits sind in Dollarwerten definiert. Das bedeutet, dass die tatsächliche Anzahl deiner Anfragen von dem von dir genutzten Modell abhängt. Günstigere Modelle wie MiniMax M2.5 erlauben mehr Anfragen, während teurere Modelle wie GLM-5 weniger erlauben.
Die folgende Tabelle zeigt eine geschätzte Anzahl von Anfragen basierend auf typischen Go-Nutzungsmustern:
| GLM-5 | Kimi K2.5 | MiniMax M2.7 | MiniMax M2.5 | |
|---|---|---|---|---|
| Anfragen pro 5 Stunden | 1.150 | 1.850 | 14.000 | 20.000 |
| Anfragen pro Woche | 2.880 | 4.630 | 35.000 | 50.000 |
| Anfragen pro Monat | 5.750 | 9.250 | 70.000 | 100.000 |
Die Schätzungen basieren auf beobachteten durchschnittlichen Anfragemustern:
- GLM-5 — 700 Input-, 52.000 Cached-, 150 Output-Tokens pro Anfrage
- Kimi K2.5 — 870 Input-, 55.000 Cached-, 200 Output-Tokens pro Anfrage
- MiniMax M2.7/M2.5 — 300 Input-, 55.000 Cached-, 125 Output-Tokens pro Anfrage
Du kannst deine aktuelle Nutzung in der Console verfolgen.
Die Nutzungslimits können sich ändern, während wir aus der frühen Nutzung und dem Feedback lernen.
Nutzung über die Limits hinaus
Wenn du auch Guthaben auf deinem Zen-Konto hast, kannst du in der Console die Option Use balance aktivieren. Wenn diese aktiviert ist, greift Go auf dein Zen-Guthaben zurück, nachdem du deine Nutzungslimits erreicht hast, anstatt Anfragen zu blockieren.
Endpunkte
Du kannst auf die Go-Modelle auch über die folgenden API-Endpunkte zugreifen.
| Modell | Modell-ID | Endpunkt | AI SDK Package |
|---|---|---|---|
| GLM-5 | glm-5 | https://opencode.ai/zen/go/v1/chat/completions | @ai-sdk/openai-compatible |
| Kimi K2.5 | kimi-k2.5 | https://opencode.ai/zen/go/v1/chat/completions | @ai-sdk/openai-compatible |
| MiniMax M2.7 | minimax-m2.7 | https://opencode.ai/zen/go/v1/messages | @ai-sdk/anthropic |
| MiniMax M2.5 | minimax-m2.5 | https://opencode.ai/zen/go/v1/messages | @ai-sdk/anthropic |
Die Modell-ID in deiner OpenCode Config verwendet das Format opencode-go/<model-id>. Für Kimi K2.5 würdest du beispielsweise opencode-go/kimi-k2.5 in deiner Config verwenden.
Datenschutz
Der Plan wurde primär für internationale Nutzer entwickelt, wobei die Modelle für einen stabilen weltweiten Zugriff in den USA, der EU und Singapur gehostet werden.
Kontaktiere uns, falls du Fragen hast.
Ziele
Wir haben OpenCode Go entwickelt, um:
- AI Coding durch ein kostengünstiges Abonnement für mehr Menschen zugänglich zu machen.
- Zuverlässigen Zugriff auf die besten offenen Coding-Modelle zu bieten.
- Modelle zu kuratieren, die für den Einsatz als Coding Agent getestet und einem Benchmark unterzogen wurden.
- Keinen Lock-in-Effekt zu haben, indem wir dir ermöglichen, auch jeden anderen Provider mit OpenCode zu nutzen.