Démarrage rapide

Démarrez avec Lingo.dev CLI

Introduction

Lingo.dev CLI est un CLI gratuit et open-source pour traduire des applications et du contenu avec l'IA. Ce guide de démarrage rapide explique comment démarrer avec Lingo.dev CLI en quelques minutes.

Étape 1. Initialiser un projet

  1. Naviguez dans un répertoire de projet :

    cd <your-project-directory>
    
  2. Exécutez la commande suivante :

    npx lingo.dev@latest init
    

    Utilisateurs Windows : Si npx lingo.dev ne fonctionne pas dans votre environnement :

    1. Installez le package : npm install lingo.dev@latest
    2. Utilisez npx lingo à la place (par exemple, npx lingo init)
  3. Suivez les instructions.

Le CLI créera un fichier i18n.json pour configurer le pipeline de traduction.

Étape 2. Configurer un bucket

Dans le fichier i18n.json, configurez au moins un bucket :

{
  "$schema": "https://lingo.dev/schema/i18n.json",
  "version": "1.10",
  "locale": {
    "source": "en",
    "targets": ["es"]
  },
  "buckets": {
    "json": {
      "include": ["locales/[locale].json"]
    }
  }
}

Les buckets déterminent le parseur que le CLI Lingo.dev utilise pour extraire le contenu traduisible. Par exemple, le bucket "json" est spécifiquement conçu pour traduire les fichiers JSON.

La configuration d'un bucket doit définir un ou plusieurs patterns include, qui spécifient quels fichiers doivent être traduits. (Vous pouvez éventuellement spécifier des patterns exclude pour un contrôle supplémentaire.)

Notez que :

  • Les patterns include de certains buckets doivent contenir un placeholder spécial [locale], mais dans d'autres cas ce placeholder est strictement interdit.
  • Certains buckets prennent en charge des fonctionnalités supplémentaires, telles que le verrouillage de clés.

Pour en savoir plus sur les exigences exactes de chaque bucket, consultez la documentation de chaque bucket, comme JSON ou CSV.

Étape 3. Configurer un fournisseur LLM

Après que le CLI Lingo.dev a extrait le contenu d'un fichier, il l'envoie à un grand modèle de langage (LLM) pour traduction, avant d'écrire le contenu traduit dans le système de fichiers.

Nous recommandons d'utiliser Lingo.dev Engine — notre propre plateforme hébergée — comme fournisseur LLM, mais ce n'est pas strictement obligatoire. Le CLI prend en charge plusieurs fournisseurs tiers, tels qu'Anthropic et OpenAI.

Moteur Lingo.dev

  1. Connectez-vous au moteur Lingo.dev.
  2. Accédez à la page Projets.
  3. Cliquez sur Clé API > Copier.
  4. Définissez une variable d'environnement LINGODOTDEV_API_KEY avec la clé API comme valeur.

Fournisseur tiers

  1. Obtenez une clé API auprès de l'un des fournisseurs pris en charge.

  2. Définissez une variable d'environnement avec la clé API comme valeur :

    • Si vous utilisez Anthropic, définissez ANTHROPIC_API_KEY
    • Si vous utilisez Google, définissez GOOGLE_API_KEY
    • Si vous utilisez Mistral, définissez MISTRAL_API_KEY
    • Si vous utilisez OpenAI, définissez OPENAI_API_KEY
    • Si vous utilisez OpenRouter, définissez OPENROUTER_API_KEY
    • Si vous utilisez Ollama, aucune clé API n'est nécessaire (s'exécute localement)
  3. Dans le fichier i18n.json, ajoutez un objet provider avec les propriétés suivantes :

    • id - L'identifiant du fournisseur LLM (par exemple, openai).
    • model - L'identifiant d'un modèle spécifique de ce fournisseur LLM (par exemple, gpt-4o-mini).
    • prompt - Le prompt à envoyer avec toutes les requêtes LLM. Utilisez {source} et {target} comme valeurs de substitution pour les locales source et cible. Elles seront remplacées à l'exécution.

    Par exemple :

    {
      "$schema": "https://lingo.dev/schema/i18n.json",
      "version": "1.10",
      "locale": {
        "source": "en",
        "targets": ["es"]
      },
      "buckets": {
        "json": {
          "include": ["locales/[locale].json"]
        }
      },
      "provider": {
        "id": "openai",
        "model": "gpt-4o-mini",
        "prompt": "Translate the provided text from {source} to {target}."
      }
    }
    

Pour en savoir plus sur les options disponibles, consultez i18n.json.

Ollama

  1. Installez Ollama depuis ollama.com.

  2. Téléchargez un modèle (par exemple, ollama pull llama3.2 ou ollama pull mistral).

  3. Assurez-vous que le service Ollama s'exécute localement.

  4. Configurez le fournisseur dans i18n.json :

    {
      "$schema": "https://lingo.dev/schema/i18n.json",
      "version": "1.10",
      "locale": {
        "source": "en",
        "targets": ["es"]
      },
      "buckets": {
        "json": {
          "include": ["locales/[locale].json"]
        }
      },
      "provider": {
        "id": "ollama",
        "model": "llama3.2",
        "baseUrl": "http://localhost:11434",
        "prompt": "Translate the provided text from {source} to {target}."
      }
    }
    

Aucune clé API n'est requise puisque Ollama s'exécute localement sur votre machine.

Étape 4. Générer les traductions

Dans le répertoire du projet, exécutez la commande suivante :

npx lingo.dev@latest run

Utilisateurs Windows : Si npx lingo.dev ne fonctionne pas dans votre environnement :

  1. Installez le package : npm install lingo.dev@latest
  2. Utilisez npx lingo à la place (par exemple, npx lingo run)

Le CLI va :

  1. Déterminer quels fichiers doivent être traduits, en fonction du fichier i18n.json.
  2. Extraire le contenu traduisible des fichiers.
  3. Envoyer le contenu au fournisseur LLM configuré pour traduction.
  4. Écrire le contenu traduit dans le système de fichiers.
  5. Créer un fichier i18n.lock pour suivre le contenu traduit.

Pour en savoir plus sur le cycle de vie complet, consultez Comment ça fonctionne.

Prochaines étapes

Consultez Commandes CLI pour la liste complète des commandes, options et indicateurs disponibles via le CLI.