Inicio rápido
Comienza a usar Lingo.dev CLI
Introducción
Lingo.dev CLI es una CLI gratuita y de código abierto para traducir aplicaciones y contenido con IA. Esta guía de inicio rápido explica cómo comenzar a usar Lingo.dev CLI en cuestión de minutos.
Paso 1. Inicializar un proyecto
-
Navega al directorio del proyecto:
cd <your-project-directory> -
Ejecuta el siguiente comando:
npx lingo.dev@latest initUsuarios de Windows: Si
npx lingo.devno se ejecuta en tu entorno:- Instala el paquete:
npm install lingo.dev@latest - Usa
npx lingoen su lugar (por ejemplo,npx lingo init)
- Instala el paquete:
-
Sigue las indicaciones.
El CLI creará un archivo i18n.json para configurar el pipeline de traducción.
Paso 2. Configurar un bucket
En el archivo i18n.json, configura al menos un bucket:
{
"$schema": "https://lingo.dev/schema/i18n.json",
"version": "1.10",
"locale": {
"source": "en",
"targets": ["es"]
},
"buckets": {
"json": {
"include": ["locales/[locale].json"]
}
}
}
Los buckets determinan el parser que Lingo.dev CLI utiliza para extraer contenido traducible. Por ejemplo, el bucket "json" está diseñado específicamente para traducir archivos JSON.
La configuración de un bucket debe definir uno o más patrones include, que especifican qué archivos deben traducirse. (Opcionalmente puedes especificar patrones exclude para un control adicional.)
Ten en cuenta que:
- Los patrones
includede ciertos buckets deben contener un marcador especial[locale], pero en otros casos este marcador está estrictamente prohibido. - Algunos buckets admiten funciones adicionales, como el bloqueo de claves.
Para obtener más información sobre los requisitos exactos de cada bucket, consulta la documentación de cada bucket, como JSON o CSV.
Paso 3. Configurar un proveedor LLM
Después de que Lingo.dev CLI extrae el contenido de un archivo, lo envía a un modelo de lenguaje grande (LLM) para su traducción, antes de escribir el contenido traducido de vuelta al sistema de archivos.
Recomendamos usar Lingo.dev Engine — nuestra propia plataforma alojada — como proveedor LLM, pero esto no es estrictamente necesario. El CLI admite varios proveedores de terceros, como Anthropic y OpenAI.
Motor de Lingo.dev
- Inicia sesión en el motor de Lingo.dev.
- Navega a la página de Proyectos.
- Haz clic en Clave API > Copiar.
- Establece una variable de entorno
LINGODOTDEV_API_KEYcon la clave API como valor.
Proveedor externo
-
Obtén una clave API de uno de los proveedores compatibles.
-
Establece una variable de entorno con la clave API como valor:
- Si usas Anthropic, establece
ANTHROPIC_API_KEY - Si usas Google, establece
GOOGLE_API_KEY - Si usas Mistral, establece
MISTRAL_API_KEY - Si usas OpenAI, establece
OPENAI_API_KEY - Si usas OpenRouter, establece
OPENROUTER_API_KEY - Si usas Ollama, no se necesita clave API (se ejecuta localmente)
- Si usas Anthropic, establece
-
En el archivo
i18n.json, añade un objetoprovidercon las siguientes propiedades:id- El ID del proveedor de LLM (por ejemplo,openai).model- El ID de un modelo específico de ese proveedor de LLM (por ejemplo,gpt-4o-mini).prompt- El prompt que se enviará con todas las solicitudes de LLM. Usa{source}y{target}como valores de marcador de posición para los locales de origen y destino. Estos se reemplazarán en tiempo de ejecución.
Por ejemplo:
{ "$schema": "https://lingo.dev/schema/i18n.json", "version": "1.10", "locale": { "source": "en", "targets": ["es"] }, "buckets": { "json": { "include": ["locales/[locale].json"] } }, "provider": { "id": "openai", "model": "gpt-4o-mini", "prompt": "Translate the provided text from {source} to {target}." } }
Para obtener más información sobre las opciones disponibles, consulta i18n.json.
Ollama
-
Instala Ollama desde ollama.com.
-
Descarga un modelo (por ejemplo,
ollama pull llama3.2oollama pull mistral). -
Asegúrate de que el servicio de Ollama esté ejecutándose localmente.
-
Configura el proveedor en
i18n.json:{ "$schema": "https://lingo.dev/schema/i18n.json", "version": "1.10", "locale": { "source": "en", "targets": ["es"] }, "buckets": { "json": { "include": ["locales/[locale].json"] } }, "provider": { "id": "ollama", "model": "llama3.2", "baseUrl": "http://localhost:11434", "prompt": "Translate the provided text from {source} to {target}." } }
No se requiere clave de API ya que Ollama se ejecuta localmente en tu máquina.
Paso 4. Generar traducciones
En el directorio del proyecto, ejecuta el siguiente comando:
npx lingo.dev@latest run
Usuarios de Windows: Si
npx lingo.devno se ejecuta en tu entorno:
- Instala el paquete:
npm install lingo.dev@latest- Usa
npx lingoen su lugar (por ejemplo,npx lingo run)
La CLI:
- Determinará qué archivos necesitan ser traducidos, basándose en el archivo
i18n.json. - Extraerá el contenido traducible de los archivos.
- Enviará el contenido al proveedor de LLM configurado para su traducción.
- Escribirá el contenido traducido de vuelta al sistema de archivos.
- Creará un archivo
i18n.lockpara realizar un seguimiento del contenido traducido.
Para obtener más información sobre el ciclo de vida completo, consulta Cómo funciona.
Próximos pasos
Consulta Comandos de la CLI para ver la lista completa de comandos, opciones y flags disponibles a través de la CLI.