Go
Suscripción de bajo costo para modelos abiertos de programación.
OpenCode Go es una suscripción de bajo costo — $5 por tu primer mes, luego $10/mes — que te brinda acceso confiable a modelos abiertos de programación populares.
Go funciona como cualquier otro proveedor en OpenCode. Te suscribes a OpenCode Go y obtienes tu API key. Es completamente opcional y no necesitas usarlo para usar OpenCode.
Está diseñado principalmente para usuarios internacionales, con modelos alojados en EE. UU., la UE y Singapur para un acceso global estable.
Antecedentes
Los modelos abiertos se han vuelto realmente buenos. Ahora alcanzan un rendimiento cercano a los modelos propietarios en tareas de programación. Y como muchos proveedores pueden servirlos de manera competitiva, suelen ser mucho más económicos.
Sin embargo, obtener un acceso confiable y de baja latencia a ellos puede ser difícil. Los proveedores varían en calidad y disponibilidad.
Para solucionar esto, hicimos un par de cosas:
- Probamos un grupo selecto de modelos abiertos y hablamos con sus equipos sobre cómo ejecutarlos mejor.
- Luego trabajamos con algunos proveedores para asegurarnos de que se sirvieran correctamente.
- Finalmente, evaluamos el rendimiento de la combinación del modelo/proveedor y elaboramos una lista que nos sentimos seguros de recomendar.
OpenCode Go te da acceso a estos modelos por $5 por tu primer mes, luego $10/mes.
Cómo funciona
OpenCode Go funciona como cualquier otro proveedor en OpenCode.
- Inicias sesión en OpenCode Zen, te suscribes a Go y copias tu API key.
- Ejecutas el comando
/connecten la TUI, seleccionasOpenCode Goy pegas tu API key. - Ejecutas
/modelsen la TUI para ver la lista de modelos disponibles a través de Go.
La lista actual de modelos incluye:
- GLM-5
- Kimi K2.5
- MiniMax M2.5
- MiniMax M2.7
La lista de modelos puede cambiar a medida que probamos y agregamos otros nuevos.
Límites de uso
OpenCode Go incluye los siguientes límites:
- Límite de 5 horas — $12 de uso
- Límite semanal — $30 de uso
- Límite mensual — $60 de uso
Los límites se definen en valor en dólares. Esto significa que tu cantidad real de peticiones depende del modelo que uses. Los modelos más económicos como MiniMax M2.5 permiten más peticiones, mientras que los modelos de mayor costo como GLM-5 permiten menos.
La siguiente tabla proporciona una cantidad estimada de peticiones basada en los patrones típicos de uso de Go:
| GLM-5 | Kimi K2.5 | MiniMax M2.7 | MiniMax M2.5 | |
|---|---|---|---|---|
| peticiones por 5 horas | 1,150 | 1,850 | 14,000 | 20,000 |
| peticiones por semana | 2,880 | 4,630 | 35,000 | 50,000 |
| peticiones por mes | 5,750 | 9,250 | 70,000 | 100,000 |
Las estimaciones se basan en los patrones de peticiones promedio observados:
- GLM-5 — 700 tokens de entrada, 52,000 en caché, 150 tokens de salida por petición
- Kimi K2.5 — 870 tokens de entrada, 55,000 en caché, 200 tokens de salida por petición
- MiniMax M2.7/M2.5 — 300 tokens de entrada, 55,000 en caché, 125 tokens de salida por petición
Puedes realizar un seguimiento de tu uso actual en la consola.
Los límites de uso pueden cambiar a medida que aprendemos del uso inicial y de los comentarios (feedback).
Uso más allá de los límites
Si también tienes créditos en tu saldo de Zen, puedes habilitar la opción Use balance en la consola. Cuando está habilitada, Go recurrirá a tu saldo de Zen después de que hayas alcanzado tus límites de uso en lugar de bloquear las peticiones.
Endpoints
También puedes acceder a los modelos de Go a través de los siguientes endpoints de la API.
| Modelo | ID del modelo | Endpoint | Paquete de AI SDK |
|---|---|---|---|
| GLM-5 | glm-5 | https://opencode.ai/zen/go/v1/chat/completions | @ai-sdk/openai-compatible |
| Kimi K2.5 | kimi-k2.5 | https://opencode.ai/zen/go/v1/chat/completions | @ai-sdk/openai-compatible |
| MiniMax M2.7 | minimax-m2.7 | https://opencode.ai/zen/go/v1/messages | @ai-sdk/anthropic |
| MiniMax M2.5 | minimax-m2.5 | https://opencode.ai/zen/go/v1/messages | @ai-sdk/anthropic |
El ID del modelo en tu configuración de OpenCode
usa el formato opencode-go/<model-id>. Por ejemplo, para Kimi K2.5, usarías
opencode-go/kimi-k2.5 en tu configuración.
Privacidad
El plan está diseñado principalmente para usuarios internacionales, con modelos alojados en EE. UU., la UE y Singapur para un acceso global estable.
Contáctanos si tienes alguna pregunta.
Objetivos
Creamos OpenCode Go para:
- Hacer que la programación con IA sea accesible para más personas con una suscripción de bajo costo.
- Proporcionar un acceso confiable a los mejores modelos abiertos de programación.
- Seleccionar modelos que estén probados y evaluados para su uso en agentes de programación.
- Evitar la dependencia (lock-in) al permitirte usar también cualquier otro proveedor con OpenCode.