Proveedores de traducción

@lingo.dev/compiler admite múltiples proveedores de traducción: usa Lingo.dev Engine para la mejor experiencia o conéctate directamente a proveedores de LLM.

Lingo.dev Engine (recomendado)

Lingo.dev Engine es la forma más fácil y potente de traducir tu aplicación. Proporciona:

  • Selección dinámica de modelos: enruta automáticamente al mejor modelo para cada par de idiomas
  • Respaldos automatizados: cambia a modelos de respaldo si el principal falla
  • Memoria de traducción: considera traducciones anteriores para mantener la coherencia
  • Soporte de glosario: mantiene la terminología específica del dominio
  • Optimización de costos: usa modelos eficientes cuando es apropiado

Configuración

  1. Regístrate en lingo.dev

  2. Autentícate:

    npx lingo.dev@latest login
    
  3. Configura:

    {
      models: "lingo.dev"
    }
    

Precio: nivel Hobby gratuito disponible. Suficiente para la mayoría de proyectos.

Clave API manual

Si la autenticación del navegador falla (por ejemplo, el navegador Brave bloqueándola), añade la clave API a .env:

LINGODOTDEV_API_KEY=your_key_here

Encuentra tu clave API en la configuración del proyecto en lingo.dev.

Proveedores de LLM directos

Conéctate directamente a proveedores de LLM para tener control total sobre la selección de modelos y los costos.

Proveedores compatibles

ProveedorFormato de cadena del modeloVariable de entornoObtener clave API
OpenAIopenai:gpt-4oOPENAI_API_KEYplatform.openai.com
Anthropicanthropic:claude-3-5-sonnetANTHROPIC_API_KEYconsole.anthropic.com
Googlegoogle:gemini-2.0-flashGOOGLE_API_KEYai.google.dev
Groqgroq:llama-3.3-70b-versatileGROQ_API_KEYconsole.groq.com
Mistralmistral:mistral-largeMISTRAL_API_KEYconsole.mistral.ai
OpenRouteropenrouter:anthropic/claude-3.5-sonnetOPENROUTER_API_KEYopenrouter.ai
Ollamaollama:llama3.2(ninguna)ollama.com (local)

Configuración simple

Usa un único proveedor para todas las traducciones:

{
  models: {
    "*:*": "groq:llama-3.3-70b-versatile"
  }
}

Mapeo de pares de idiomas

Usa diferentes proveedores para diferentes pares de idiomas:

{
  models: {
    // Specific pairs
    "en:es": "groq:llama-3.3-70b-versatile",    // Fast & cheap for Spanish
    "en:de": "google:gemini-2.0-flash",         // Good quality for German
    "en:ja": "openai:gpt-4o",                   // High quality for Japanese

    // Wildcards
    "*:fr": "anthropic:claude-3-5-sonnet",      // All sources → French
    "en:*": "google:gemini-2.0-flash",          // English → all targets

    // Fallback
    "*:*": "lingo.dev",                         // Everything else
  }
}

Prioridad de coincidencia de patrones:

  1. Coincidencia exacta ("en:es")
  2. Comodín de origen ("*:es")
  3. Comodín de destino ("en:*")
  4. Comodín global ("*:*")

Configuración de clave API

Añade las claves API del proveedor a .env:

# Lingo.dev Engine
LINGODOTDEV_API_KEY=your_key

# OpenAI
OPENAI_API_KEY=sk-...

# Anthropic
ANTHROPIC_API_KEY=sk-ant-...

# Google
GOOGLE_API_KEY=...

# Groq
GROQ_API_KEY=gsk_...

# Mistral
MISTRAL_API_KEY=...

# OpenRouter
OPENROUTER_API_KEY=sk-or-...

Nunca hagas commit de archivos .env—añádelos a .gitignore.

Guía de selección de modelos

Para desarrollo

Usa pseudotranslator—instantáneo, gratuito, sin claves API:

{
  dev: {
    usePseudotranslator: true,
  }
}

Para proyectos con presupuesto ajustado

Groq - Inferencia rápida, nivel gratuito generoso:

{
  models: {
    "*:*": "groq:llama-3.3-70b-versatile",
  }
}

Google Gemini - Precios competitivos, buena calidad:

{
  models: {
    "*:*": "google:gemini-2.0-flash",
  }
}

Para alta calidad

OpenAI GPT-4 - Mejor calidad general:

{
  models: {
    "*:*": "openai:gpt-4o",
  }
}

Anthropic Claude - Excelente para traducciones matizadas:

{
  models: {
    "*:*": "anthropic:claude-3-5-sonnet",
  }
}

Para local/offline

Ollama - Ejecuta modelos localmente:

{
  models: {
    "*:*": "ollama:llama3.2",
  }
}

Instala Ollama y descarga un modelo:

curl -fsSL https://ollama.com/install.sh | sh
ollama pull llama3.2

Estrategia mixta (recomendada)

Optimiza los costes utilizando diferentes modelos por idioma:

{
  models: {
    // Fast & cheap for Romance languages
    "en:es": "groq:llama-3.3-70b-versatile",
    "en:fr": "groq:llama-3.3-70b-versatile",
    "en:pt": "groq:llama-3.3-70b-versatile",

    // Higher quality for complex languages
    "en:ja": "openai:gpt-4o",
    "en:zh": "openai:gpt-4o",
    "en:ar": "openai:gpt-4o",

    // Good balance for European languages
    "en:de": "google:gemini-2.0-flash",
    "en:nl": "google:gemini-2.0-flash",

    // Fallback
    "*:*": "lingo.dev",
  }
}

Prompts de traducción personalizados

Personaliza la instrucción de traducción enviada a los LLM:

{
  models: "lingo.dev",
  prompt: `Translate from {SOURCE_LOCALE} to {TARGET_LOCALE}.

Guidelines:
- Use a professional tone
- Preserve all technical terms
- Do not translate brand names
- Maintain formatting (bold, italic, etc.)
- Use gender-neutral language where possible`
}

Marcadores de posición disponibles:

  • {SOURCE_LOCALE}: Código de configuración regional de origen (p. ej., "en")
  • {TARGET_LOCALE}: Código de configuración regional de destino (p. ej., "es")

El compilador añade automáticamente contexto sobre el texto que se está traduciendo (archivo, componente, elementos circundantes).

Modelos específicos del proveedor

OpenAI

"openai:gpt-4o"              // Best quality
"openai:gpt-4o-mini"         // Faster, cheaper
"openai:gpt-4-turbo"         // Previous generation

Anthropic

"anthropic:claude-3-5-sonnet"  // Best quality
"anthropic:claude-3-haiku"     // Faster, cheaper
"anthropic:claude-3-opus"      // Highest quality (expensive)

Google

"google:gemini-2.0-flash"      // Fast, efficient
"google:gemini-1.5-pro"        // Higher quality

Groq

"groq:llama-3.3-70b-versatile"  // Fast inference
"groq:mixtral-8x7b-32768"       // Good quality

Mistral

"mistral:mistral-large"         // Best quality
"mistral:mistral-small"         // Faster, cheaper

OpenRouter

OpenRouter proporciona acceso a más de 100 modelos. Utiliza los ID de modelo de openrouter.ai/models:

"openrouter:anthropic/claude-3.5-sonnet"
"openrouter:google/gemini-2.0-flash"
"openrouter:meta-llama/llama-3.3-70b"

Ollama

Utiliza cualquier modelo de Ollama:

"ollama:llama3.2"
"ollama:mistral"
"ollama:qwen2.5"

Listar modelos disponibles: ollama list

Proveedores compatibles con OpenAI

Puedes usar cualquier API compatible con OpenAI configurando OPENAI_BASE_URL para que apunte al endpoint del proveedor. Esto funciona con proveedores como Nebius, Together AI, Anyscale y Fireworks.

Nota Nebius es el único proveedor compatible con OpenAI oficialmente probado con el compilador de Lingo.dev. Otros proveedores listados a continuación exponen APIs compatibles con OpenAI pero no están oficialmente probados.

Configuración

  1. Configura las variables de entorno:
OPENAI_API_KEY=<your-provider-api-key>
OPENAI_BASE_URL=<provider-api-endpoint>
  1. Usa el prefijo openai: con el ID del modelo del proveedor:
{
  models: {
    "*:*": "openai:provider-model-id"
  }
}

Proveedores compatibles

ProveedorURL baseModelo de ejemplo
Nebiushttps://api.tokenfactory.nebius.com/v1google/gemma-2-9b-it-fast
Together AIhttps://api.together.xyz/v1meta-llama/Llama-3-70b-chat-hf
Anyscalehttps://api.endpoints.anyscale.com/v1meta-llama/Llama-2-70b-chat-hf
Fireworkshttps://api.fireworks.ai/inference/v1accounts/fireworks/models/llama-v3-70b-instruct
Los modelos de ejemplo son ilustrativos. La disponibilidad y los ID de modelos pueden cambiar con el tiempo. Verifica siempre la lista actual de modelos con la API del proveedor.

Preguntas frecuentes

¿Qué proveedor debo usar? Comienza con Lingo.dev Engine por simplicidad. Para control total y optimización de costos, usa mapeo de pares de idiomas con múltiples proveedores.

¿Necesito claves API en producción? No. Usa buildMode: "cache-only" en producción: las traducciones se generan previamente. Consulta Modos de compilación.

¿Puedo mezclar proveedores? Sí. Usa mapeo de pares de idiomas para dirigir diferentes pares de idiomas a diferentes proveedores.

¿Qué pasa si mi clave API no es válida? El compilador fallará con un mensaje de error claro. Verifica tu archivo .env y asegúrate de que la clave API sea correcta para el proveedor configurado.

¿Puedo usar modelos personalizados? OpenRouter admite más de 100 modelos. Ollama admite cualquier modelo instalado localmente. Otros proveedores están limitados a su catálogo de modelos.

¿Cómo pruebo sin llamadas a la API? Activa el pseudotraductor en desarrollo:

{
  dev: { usePseudotranslator: true }
}

¿Cuál es la diferencia de coste entre proveedores? Varía significativamente. Groq ofrece un nivel gratuito generoso. OpenAI GPT-4 tiene precios premium. Google Gemini tiene precios competitivos. Consulta la página de precios de cada proveedor.

Próximos pasos