Aprende a integrar GCPRO AI con las herramientas de desarrollo más populares.
Esta guía te muestra cómo configurar diferentes herramientas de desarrollo para usar los modelos de IA de GCPRO.
Todas las integraciones usan el mismo endpoint base:
https://ai.gcpro.cloud/api/v1
| Modelo | Parámetros | Tamaño | Plan Mínimo |
|---|---|---|---|
smollm2:1.7b | 1.7B | 1.8 GB | Gratuito |
qwen2.5:3b | 3B | 1.9 GB | Gratuito |
gemma3:4b | 4B | 3.3 GB | Básico |
qwen2.5:7b | 7B | 4.7 GB | Pro |
qwen2.5:14b | 14B | 9.0 GB | Enterprise |
Todas las peticiones deben incluir tu API key en el header:
Authorization: Bearer TU_API_KEY
Obtén tu API key desde el dashboard de GCPRO.
# Listar modelos disponibles curl https://ai.gcpro.cloud/api/v1/models \ -H "Authorization: Bearer TU_API_KEY"
opencode es un asistente de IA interactivo para desarrollo de software. Configúralo para usar GCPRO.
Crea o edita el archivo ~/.config/opencode/config.json (Linux) o %APPDATA%\opencode\config.json (Windows):
{
"provider": {
"openai-compatible": {
"npm": "@ai-sdk/openai-compatible",
"options": {
"baseURL": "https://ai.gcpro.cloud/api/v1",
"apiKey": "gcpro_tu_api_key_aqui"
},
"models": {
"gcpro-qwen": {
"limit": {
"context": 8192,
"output": 4096
}
}
}
}
},
"model": "gcpro-qwen"
}
# Linux/macOS - agregar a ~/.bashrc o ~/.zshrc export OPENAI_API_KEY="gcpro_tu_api_key_aqui" export OPENAI_BASE_URL="https://ai.gcpro.cloud/api/v1" # Windows - en PowerShell $env:OPENAI_API_KEY="gcpro_tu_api_key_aqui" $env:OPENAI_BASE_URL="https://ai.gcpro.cloud/api/v1"
# Ejecutar opencode con modelo específico opencode --model qwen2.5:7b # O especificar el modelo en cada sesión
En el campo model de tus peticiones, usa el nombre del modelo: smollm2:1.7b, qwen2.5:3b, qwen2.5:7b, etc.
Cursor es un IDE potenciado por IA basado en VS Code. Sigue estos pasos para configurarlo.
Ve a Cursor → Settings → Models o presiona Cmd+, (Mac) / Ctrl+, (Windows) y busca "Models".
En el dropdown de proveedores, selecciona OpenAI Compatible.
Ingresa los siguientes valores:
Base URL: https://ai.gcpro.cloud/api/v1 API Key: gcpro_tu_api_key_aqui
En el campo "Model", ingresa el modelo que deseas usar:
# Model ID: qwen2.5:7b # Opciones disponibles: smollm2:1.7b (más rápido, menos capacidad) qwen2.5:3b (balance velocidad/calidad) qwen2.5:7b (recomendado para desarrollo) qwen2.5:14b (máxima calidad, Enterprise)
Crea un nuevo chat en Cursor y envíale un mensaje. Debería responder usando el modelo de GCPRO configurado.
Cline es una extensión de VS Code para programación autónoma. Configúralo para usar GCPRO.
Ve a Settings → Models dentro de Cline o haz clic en el icono de configuración en el panel de Cline.
Busca la opción OpenAI Compatible o Custom Provider.
Base URL: https://ai.gcpro.cloud/v1 API Key: gcpro_tu_api_key_aqui Model ID: qwen2.5:7b
| Modèle ID | Descripción |
|---|---|
smollm2:1.7b | Más rápido, ideal para tareas simples |
qwen2.5:3b | Buen balance velocidad/calidad |
qwen2.5:7b | Recomendado para desarrollo general |
qwen2.5:14b | Máxima calidad, tareas complejas |
Continue es un plugin de IA para VS Code y JetBrains. Configúralo para usar GCPRO.
Busca "Continue" en la tienda de extensiones de VS Code o JetBrains e instálalo.
Haz clic en el icono de Continue en la barra lateral o busca "Continue: Config" en settings.
Agrega esta configuración en el archivo ~/.continue/config.json:
{
"models": [
{
"title": "GCPRO Qwen",
"provider": "openai",
"model": "qwen2.5:7b",
"apiKey": "gcpro_tu_api_key_aqui",
"apiBase": "https://ai.gcpro.cloud/api/v1"
}
],
"tabAutocompleteModel": {
"title": "GCPRO SmolLM",
"provider": "openai",
"model": "smollm2:1.7b",
"apiKey": "gcpro_tu_api_key_aqui",
"apiBase": "https://ai.gcpro.cloud/api/v1"
}
}
Continue permite configurar modelos separados para chat y autocompletado. SmolLM2 es ideal para autocompletado por su velocidad.
# También puedes usar variables de entorno export OPENAI_API_KEY="gcpro_tu_api_key_aqui" export OPENAI_BASE_URL="https://ai.gcpro.cloud/api/v1"
from openai import OpenAI
client = OpenAI(
api_key="gcpro_tu_api_key_aqui",
base_url="https://ai.gcpro.cloud/api/v1"
)
response = client.chat.completions.create(
model="qwen2.5:7b",
messages=[
{"role": "user", "content": "Hola, escribe una función en Python"}
],
max_tokens=500
)
print(response.choices[0].message.content)
import OpenAI from 'openai';
const client = new OpenAI({
apiKey: "gcpro_tu_api_key_aqui",
baseURL: "https://ai.gcpro.cloud/api/v1"
});
const response = await client.chat.completions.create({
model: "qwen2.5:7b",
messages: [
{ role: "user", content: "Hola, dime qué horas son" }
]
});
console.log(response.choices[0].message.content);
curl -X POST https://ai.gcpro.cloud/api/v1/chat/completions \
-H "Content-Type: application/json" \
-H "Authorization: Bearer gcpro_tu_api_key_aqui" \
-d '{
"model": "qwen2.5:7b",
"messages": [{"role": "user", "content": "Hola"}],
"max_tokens": 100
}'