Inicio rápido

Comienza a usar Lingo.dev CLI

Introducción

Lingo.dev CLI es una CLI gratuita y de código abierto para traducir aplicaciones y contenido con IA. Esta guía de inicio rápido explica cómo comenzar a usar Lingo.dev CLI en cuestión de minutos.

Paso 1. Inicializar un proyecto

  1. Navega al directorio del proyecto:

    cd <your-project-directory>
    
  2. Ejecuta el siguiente comando:

    npx lingo.dev@latest init
    

    Usuarios de Windows: Si npx lingo.dev no se ejecuta en tu entorno:

    1. Instala el paquete: npm install lingo.dev@latest
    2. Usa npx lingo en su lugar (por ejemplo, npx lingo init)
  3. Sigue las indicaciones.

El CLI creará un archivo i18n.json para configurar el pipeline de traducción.

Paso 2. Configurar un bucket

En el archivo i18n.json, configura al menos un bucket:

{
  "$schema": "https://lingo.dev/schema/i18n.json",
  "version": "1.10",
  "locale": {
    "source": "en",
    "targets": ["es"]
  },
  "buckets": {
    "json": {
      "include": ["locales/[locale].json"]
    }
  }
}

Los buckets determinan el parser que Lingo.dev CLI utiliza para extraer contenido traducible. Por ejemplo, el bucket "json" está diseñado específicamente para traducir archivos JSON.

La configuración de un bucket debe definir uno o más patrones include, que especifican qué archivos deben traducirse. (Opcionalmente puedes especificar patrones exclude para un control adicional.)

Ten en cuenta que:

  • Los patrones include de ciertos buckets deben contener un marcador especial [locale], pero en otros casos este marcador está estrictamente prohibido.
  • Algunos buckets admiten funciones adicionales, como el bloqueo de claves.

Para obtener más información sobre los requisitos exactos de cada bucket, consulta la documentación de cada bucket, como JSON o CSV.

Paso 3. Configurar un proveedor LLM

Después de que Lingo.dev CLI extrae el contenido de un archivo, lo envía a un modelo de lenguaje grande (LLM) para su traducción, antes de escribir el contenido traducido de vuelta al sistema de archivos.

Recomendamos usar Lingo.dev Engine — nuestra propia plataforma alojada — como proveedor LLM, pero esto no es estrictamente necesario. El CLI admite varios proveedores de terceros, como Anthropic y OpenAI.

Motor de Lingo.dev

  1. Inicia sesión en el motor de Lingo.dev.
  2. Navega a la página de Proyectos.
  3. Haz clic en Clave API > Copiar.
  4. Establece una variable de entorno LINGODOTDEV_API_KEY con la clave API como valor.

Proveedor externo

  1. Obtén una clave API de uno de los proveedores compatibles.

  2. Establece una variable de entorno con la clave API como valor:

    • Si usas Anthropic, establece ANTHROPIC_API_KEY
    • Si usas Google, establece GOOGLE_API_KEY
    • Si usas Mistral, establece MISTRAL_API_KEY
    • Si usas OpenAI, establece OPENAI_API_KEY
    • Si usas OpenRouter, establece OPENROUTER_API_KEY
    • Si usas Ollama, no se necesita clave API (se ejecuta localmente)
  3. En el archivo i18n.json, añade un objeto provider con las siguientes propiedades:

    • id - El ID del proveedor de LLM (por ejemplo, openai).
    • model - El ID de un modelo específico de ese proveedor de LLM (por ejemplo, gpt-4o-mini).
    • prompt - El prompt que se enviará con todas las solicitudes de LLM. Usa {source} y {target} como valores de marcador de posición para los locales de origen y destino. Estos se reemplazarán en tiempo de ejecución.

    Por ejemplo:

    {
      "$schema": "https://lingo.dev/schema/i18n.json",
      "version": "1.10",
      "locale": {
        "source": "en",
        "targets": ["es"]
      },
      "buckets": {
        "json": {
          "include": ["locales/[locale].json"]
        }
      },
      "provider": {
        "id": "openai",
        "model": "gpt-4o-mini",
        "prompt": "Translate the provided text from {source} to {target}."
      }
    }
    

Para obtener más información sobre las opciones disponibles, consulta i18n.json.

Ollama

  1. Instala Ollama desde ollama.com.

  2. Descarga un modelo (por ejemplo, ollama pull llama3.2 o ollama pull mistral).

  3. Asegúrate de que el servicio de Ollama esté ejecutándose localmente.

  4. Configura el proveedor en i18n.json:

    {
      "$schema": "https://lingo.dev/schema/i18n.json",
      "version": "1.10",
      "locale": {
        "source": "en",
        "targets": ["es"]
      },
      "buckets": {
        "json": {
          "include": ["locales/[locale].json"]
        }
      },
      "provider": {
        "id": "ollama",
        "model": "llama3.2",
        "baseUrl": "http://localhost:11434",
        "prompt": "Translate the provided text from {source} to {target}."
      }
    }
    

No se requiere clave de API ya que Ollama se ejecuta localmente en tu máquina.

Paso 4. Generar traducciones

En el directorio del proyecto, ejecuta el siguiente comando:

npx lingo.dev@latest run

Usuarios de Windows: Si npx lingo.dev no se ejecuta en tu entorno:

  1. Instala el paquete: npm install lingo.dev@latest
  2. Usa npx lingo en su lugar (por ejemplo, npx lingo run)

La CLI:

  1. Determinará qué archivos necesitan ser traducidos, basándose en el archivo i18n.json.
  2. Extraerá el contenido traducible de los archivos.
  3. Enviará el contenido al proveedor de LLM configurado para su traducción.
  4. Escribirá el contenido traducido de vuelta al sistema de archivos.
  5. Creará un archivo i18n.lock para realizar un seguimiento del contenido traducido.

Para obtener más información sobre el ciclo de vida completo, consulta Cómo funciona.

Próximos pasos

Consulta Comandos de la CLI para ver la lista completa de comandos, opciones y flags disponibles a través de la CLI.