Documentación de Integración

Aprende a integrar GCPRO AI con las herramientas de desarrollo más populares.

📋 Información General

Esta guía te muestra cómo configurar diferentes herramientas de desarrollo para usar los modelos de IA de GCPRO.

🔗 Endpoint Base

Todas las integraciones usan el mismo endpoint base:

https://ai.gcpro.cloud/api/v1

Modelos Disponibles

Modelo Parámetros Tamaño Plan Mínimo
smollm2:1.7b1.7B1.8 GBGratuito
qwen2.5:3b3B1.9 GBGratuito
gemma3:4b4B3.3 GBBásico
qwen2.5:7b7B4.7 GBPro
qwen2.5:14b14B9.0 GBEnterprise

Autenticación

Todas las peticiones deben incluir tu API key en el header:

Authorization: Bearer TU_API_KEY

Obtén tu API key desde el dashboard de GCPRO.

Verificar Conexión

# Listar modelos disponibles
curl https://ai.gcpro.cloud/api/v1/models \
  -H "Authorization: Bearer TU_API_KEY"

⚡ opencode

opencode es un asistente de IA interactivo para desarrollo de software. Configúralo para usar GCPRO.

Método 1: Configuración con archivo JSON

Crea o edita el archivo ~/.config/opencode/config.json (Linux) o %APPDATA%\opencode\config.json (Windows):

{
  "provider": {
    "openai-compatible": {
      "npm": "@ai-sdk/openai-compatible",
      "options": {
        "baseURL": "https://ai.gcpro.cloud/api/v1",
        "apiKey": "gcpro_tu_api_key_aqui"
      },
      "models": {
        "gcpro-qwen": {
          "limit": {
            "context": 8192,
            "output": 4096
          }
        }
      }
    }
  },
  "model": "gcpro-qwen"
}

Método 2: Variables de entorno

# Linux/macOS - agregar a ~/.bashrc o ~/.zshrc
export OPENAI_API_KEY="gcpro_tu_api_key_aqui"
export OPENAI_BASE_URL="https://ai.gcpro.cloud/api/v1"

# Windows - en PowerShell
$env:OPENAI_API_KEY="gcpro_tu_api_key_aqui"
$env:OPENAI_BASE_URL="https://ai.gcpro.cloud/api/v1"

Ejemplo de uso

# Ejecutar opencode con modelo específico
opencode --model qwen2.5:7b

# O especificar el modelo en cada sesión

⚠️ Importante

En el campo model de tus peticiones, usa el nombre del modelo: smollm2:1.7b, qwen2.5:3b, qwen2.5:7b, etc.

💻 Cursor

Cursor es un IDE potenciado por IA basado en VS Code. Sigue estos pasos para configurarlo.

1

Abre la Configuración

Ve a Cursor → Settings → Models o presiona Cmd+, (Mac) / Ctrl+, (Windows) y busca "Models".

2

Selecciona OpenAI Compatible

En el dropdown de proveedores, selecciona OpenAI Compatible.

3

Configura la conexión

Ingresa los siguientes valores:

Base URL: https://ai.gcpro.cloud/api/v1
API Key: gcpro_tu_api_key_aqui
4

Selecciona el Modelo

En el campo "Model", ingresa el modelo que deseas usar:

# Model ID:
qwen2.5:7b

# Opciones disponibles:
smollm2:1.7b  (más rápido, menos capacidad)
qwen2.5:3b   (balance velocidad/calidad)
qwen2.5:7b   (recomendado para desarrollo)
qwen2.5:14b  (máxima calidad, Enterprise)

✅ Verificación

Crea un nuevo chat en Cursor y envíale un mensaje. Debería responder usando el modelo de GCPRO configurado.

🔵 Cline

Cline es una extensión de VS Code para programación autónoma. Configúralo para usar GCPRO.

1

Abre la Configuración de Cline

Ve a Settings → Models dentro de Cline o haz clic en el icono de configuración en el panel de Cline.

2

Agregar Provider Personalizado

Busca la opción OpenAI Compatible o Custom Provider.

3

Configura los parámetros

Base URL: https://ai.gcpro.cloud/v1
API Key: gcpro_tu_api_key_aqui
Model ID: qwen2.5:7b

Modelos disponibles en Cline

Modèle ID Descripción
smollm2:1.7bMás rápido, ideal para tareas simples
qwen2.5:3bBuen balance velocidad/calidad
qwen2.5:7bRecomendado para desarrollo general
qwen2.5:14bMáxima calidad, tareas complejas

📝 Continue

Continue es un plugin de IA para VS Code y JetBrains. Configúralo para usar GCPRO.

1

Instala Continue

Busca "Continue" en la tienda de extensiones de VS Code o JetBrains e instálalo.

2

Edita la configuración

Haz clic en el icono de Continue en la barra lateral o busca "Continue: Config" en settings.

Configuración JSON

Agrega esta configuración en el archivo ~/.continue/config.json:

{
  "models": [
    {
      "title": "GCPRO Qwen",
      "provider": "openai",
      "model": "qwen2.5:7b",
      "apiKey": "gcpro_tu_api_key_aqui",
      "apiBase": "https://ai.gcpro.cloud/api/v1"
    }
  ],
  "tabAutocompleteModel": {
    "title": "GCPRO SmolLM",
    "provider": "openai",
    "model": "smollm2:1.7b",
    "apiKey": "gcpro_tu_api_key_aqui",
    "apiBase": "https://ai.gcpro.cloud/api/v1"
  }
}

📋 Modelos para autocompletado

Continue permite configurar modelos separados para chat y autocompletado. SmolLM2 es ideal para autocompletado por su velocidad.

Configuración alternativa (variables de entorno)

# También puedes usar variables de entorno
export OPENAI_API_KEY="gcpro_tu_api_key_aqui"
export OPENAI_BASE_URL="https://ai.gcpro.cloud/api/v1"

📚 Ejemplos de Código

Python (OpenAI SDK)

from openai import OpenAI

client = OpenAI(
    api_key="gcpro_tu_api_key_aqui",
    base_url="https://ai.gcpro.cloud/api/v1"
)

response = client.chat.completions.create(
    model="qwen2.5:7b",
    messages=[
        {"role": "user", "content": "Hola, escribe una función en Python"}
    ],
    max_tokens=500
)

print(response.choices[0].message.content)

JavaScript / Node.js

import OpenAI from 'openai';

const client = new OpenAI({
  apiKey: "gcpro_tu_api_key_aqui",
  baseURL: "https://ai.gcpro.cloud/api/v1"
});

const response = await client.chat.completions.create({
  model: "qwen2.5:7b",
  messages: [
    { role: "user", content: "Hola, dime qué horas son" }
  ]
});

console.log(response.choices[0].message.content);

cURL

curl -X POST https://ai.gcpro.cloud/api/v1/chat/completions \
  -H "Content-Type: application/json" \
  -H "Authorization: Bearer gcpro_tu_api_key_aqui" \
  -d '{
    "model": "qwen2.5:7b",
    "messages": [{"role": "user", "content": "Hola"}],
    "max_tokens": 100
  }'