Proveedores de traducción
@lingo.dev/compiler admite múltiples proveedores de traducción: usa Lingo.dev Engine para la mejor experiencia o conéctate directamente a proveedores de LLM.
Lingo.dev Engine (recomendado)
Lingo.dev Engine es la forma más fácil y potente de traducir tu aplicación. Proporciona:
- Selección dinámica de modelos: enruta automáticamente al mejor modelo para cada par de idiomas
- Respaldos automatizados: cambia a modelos de respaldo si el principal falla
- Memoria de traducción: considera traducciones anteriores para mantener la coherencia
- Soporte de glosario: mantiene la terminología específica del dominio
- Optimización de costos: usa modelos eficientes cuando es apropiado
Configuración
-
Regístrate en lingo.dev
-
Autentícate:
npx lingo.dev@latest login -
Configura:
{ models: "lingo.dev" }
Precio: nivel Hobby gratuito disponible. Suficiente para la mayoría de proyectos.
Clave API manual
Si la autenticación del navegador falla (por ejemplo, el navegador Brave bloqueándola), añade la clave API a .env:
LINGODOTDEV_API_KEY=your_key_here
Encuentra tu clave API en la configuración del proyecto en lingo.dev.
Proveedores de LLM directos
Conéctate directamente a proveedores de LLM para tener control total sobre la selección de modelos y los costos.
Proveedores compatibles
| Proveedor | Formato de cadena del modelo | Variable de entorno | Obtener clave API |
|---|---|---|---|
| OpenAI | openai:gpt-4o | OPENAI_API_KEY | platform.openai.com |
| Anthropic | anthropic:claude-3-5-sonnet | ANTHROPIC_API_KEY | console.anthropic.com |
google:gemini-2.0-flash | GOOGLE_API_KEY | ai.google.dev | |
| Groq | groq:llama-3.3-70b-versatile | GROQ_API_KEY | console.groq.com |
| Mistral | mistral:mistral-large | MISTRAL_API_KEY | console.mistral.ai |
| OpenRouter | openrouter:anthropic/claude-3.5-sonnet | OPENROUTER_API_KEY | openrouter.ai |
| Ollama | ollama:llama3.2 | (ninguna) | ollama.com (local) |
Configuración simple
Usa un único proveedor para todas las traducciones:
{
models: {
"*:*": "groq:llama-3.3-70b-versatile"
}
}
Mapeo de pares de idiomas
Usa diferentes proveedores para diferentes pares de idiomas:
{
models: {
// Specific pairs
"en:es": "groq:llama-3.3-70b-versatile", // Fast & cheap for Spanish
"en:de": "google:gemini-2.0-flash", // Good quality for German
"en:ja": "openai:gpt-4o", // High quality for Japanese
// Wildcards
"*:fr": "anthropic:claude-3-5-sonnet", // All sources → French
"en:*": "google:gemini-2.0-flash", // English → all targets
// Fallback
"*:*": "lingo.dev", // Everything else
}
}
Prioridad de coincidencia de patrones:
- Coincidencia exacta (
"en:es") - Comodín de origen (
"*:es") - Comodín de destino (
"en:*") - Comodín global (
"*:*")
Configuración de clave API
Añade las claves API del proveedor a .env:
# Lingo.dev Engine
LINGODOTDEV_API_KEY=your_key
# OpenAI
OPENAI_API_KEY=sk-...
# Anthropic
ANTHROPIC_API_KEY=sk-ant-...
# Google
GOOGLE_API_KEY=...
# Groq
GROQ_API_KEY=gsk_...
# Mistral
MISTRAL_API_KEY=...
# OpenRouter
OPENROUTER_API_KEY=sk-or-...
Nunca hagas commit de archivos .env—añádelos a .gitignore.
Guía de selección de modelos
Para desarrollo
Usa pseudotranslator—instantáneo, gratuito, sin claves API:
{
dev: {
usePseudotranslator: true,
}
}
Para proyectos con presupuesto ajustado
Groq - Inferencia rápida, nivel gratuito generoso:
{
models: {
"*:*": "groq:llama-3.3-70b-versatile",
}
}
Google Gemini - Precios competitivos, buena calidad:
{
models: {
"*:*": "google:gemini-2.0-flash",
}
}
Para alta calidad
OpenAI GPT-4 - Mejor calidad general:
{
models: {
"*:*": "openai:gpt-4o",
}
}
Anthropic Claude - Excelente para traducciones matizadas:
{
models: {
"*:*": "anthropic:claude-3-5-sonnet",
}
}
Para local/offline
Ollama - Ejecuta modelos localmente:
{
models: {
"*:*": "ollama:llama3.2",
}
}
Instala Ollama y descarga un modelo:
curl -fsSL https://ollama.com/install.sh | sh
ollama pull llama3.2
Estrategia mixta (recomendada)
Optimiza los costes utilizando diferentes modelos por idioma:
{
models: {
// Fast & cheap for Romance languages
"en:es": "groq:llama-3.3-70b-versatile",
"en:fr": "groq:llama-3.3-70b-versatile",
"en:pt": "groq:llama-3.3-70b-versatile",
// Higher quality for complex languages
"en:ja": "openai:gpt-4o",
"en:zh": "openai:gpt-4o",
"en:ar": "openai:gpt-4o",
// Good balance for European languages
"en:de": "google:gemini-2.0-flash",
"en:nl": "google:gemini-2.0-flash",
// Fallback
"*:*": "lingo.dev",
}
}
Prompts de traducción personalizados
Personaliza la instrucción de traducción enviada a los LLM:
{
models: "lingo.dev",
prompt: `Translate from {SOURCE_LOCALE} to {TARGET_LOCALE}.
Guidelines:
- Use a professional tone
- Preserve all technical terms
- Do not translate brand names
- Maintain formatting (bold, italic, etc.)
- Use gender-neutral language where possible`
}
Marcadores de posición disponibles:
{SOURCE_LOCALE}: Código de configuración regional de origen (p. ej.,"en"){TARGET_LOCALE}: Código de configuración regional de destino (p. ej.,"es")
El compilador añade automáticamente contexto sobre el texto que se está traduciendo (archivo, componente, elementos circundantes).
Modelos específicos del proveedor
OpenAI
"openai:gpt-4o" // Best quality
"openai:gpt-4o-mini" // Faster, cheaper
"openai:gpt-4-turbo" // Previous generation
Anthropic
"anthropic:claude-3-5-sonnet" // Best quality
"anthropic:claude-3-haiku" // Faster, cheaper
"anthropic:claude-3-opus" // Highest quality (expensive)
"google:gemini-2.0-flash" // Fast, efficient
"google:gemini-1.5-pro" // Higher quality
Groq
"groq:llama-3.3-70b-versatile" // Fast inference
"groq:mixtral-8x7b-32768" // Good quality
Mistral
"mistral:mistral-large" // Best quality
"mistral:mistral-small" // Faster, cheaper
OpenRouter
OpenRouter proporciona acceso a más de 100 modelos. Utiliza los ID de modelo de openrouter.ai/models:
"openrouter:anthropic/claude-3.5-sonnet"
"openrouter:google/gemini-2.0-flash"
"openrouter:meta-llama/llama-3.3-70b"
Ollama
Utiliza cualquier modelo de Ollama:
"ollama:llama3.2"
"ollama:mistral"
"ollama:qwen2.5"
Listar modelos disponibles: ollama list
Proveedores compatibles con OpenAI
Puedes usar cualquier API compatible con OpenAI configurando OPENAI_BASE_URL para que apunte al endpoint del proveedor. Esto funciona con proveedores como Nebius, Together AI, Anyscale y Fireworks.
Nota Nebius es el único proveedor compatible con OpenAI oficialmente probado con el compilador de Lingo.dev. Otros proveedores listados a continuación exponen APIs compatibles con OpenAI pero no están oficialmente probados.
Configuración
- Configura las variables de entorno:
OPENAI_API_KEY=<your-provider-api-key>
OPENAI_BASE_URL=<provider-api-endpoint>
- Usa el prefijo
openai:con el ID del modelo del proveedor:
{
models: {
"*:*": "openai:provider-model-id"
}
}
Proveedores compatibles
| Proveedor | URL base | Modelo de ejemplo |
|---|---|---|
| Nebius | https://api.tokenfactory.nebius.com/v1 | google/gemma-2-9b-it-fast |
| Together AI | https://api.together.xyz/v1 | meta-llama/Llama-3-70b-chat-hf |
| Anyscale | https://api.endpoints.anyscale.com/v1 | meta-llama/Llama-2-70b-chat-hf |
| Fireworks | https://api.fireworks.ai/inference/v1 | accounts/fireworks/models/llama-v3-70b-instruct |
Preguntas frecuentes
¿Qué proveedor debo usar? Comienza con Lingo.dev Engine por simplicidad. Para control total y optimización de costos, usa mapeo de pares de idiomas con múltiples proveedores.
¿Necesito claves API en producción?
No. Usa buildMode: "cache-only" en producción: las traducciones se generan previamente. Consulta Modos de compilación.
¿Puedo mezclar proveedores? Sí. Usa mapeo de pares de idiomas para dirigir diferentes pares de idiomas a diferentes proveedores.
¿Qué pasa si mi clave API no es válida?
El compilador fallará con un mensaje de error claro. Verifica tu archivo .env y asegúrate de que la clave API sea correcta para el proveedor configurado.
¿Puedo usar modelos personalizados? OpenRouter admite más de 100 modelos. Ollama admite cualquier modelo instalado localmente. Otros proveedores están limitados a su catálogo de modelos.
¿Cómo pruebo sin llamadas a la API? Activa el pseudotraductor en desarrollo:
{
dev: { usePseudotranslator: true }
}
¿Cuál es la diferencia de coste entre proveedores? Varía significativamente. Groq ofrece un nivel gratuito generoso. OpenAI GPT-4 tiene precios premium. Google Gemini tiene precios competitivos. Consulta la página de precios de cada proveedor.
Próximos pasos
- Modos de compilación — Optimiza para desarrollo vs producción
- Referencia de configuración — Todas las opciones de configuración
- Mejores prácticas — Estrategias de proveedores recomendadas