Démarrage rapide

Démarrez rapidement avec l'interface en ligne de commande de Lingo.dev

Introduction

Lingo.dev CLI est un CLI gratuit et open-source pour traduire des applications et du contenu avec l'IA. Ce guide de démarrage rapide explique comment commencer à utiliser Lingo.dev CLI en quelques minutes.

Étape 1. Initialiser un projet

  1. Naviguez dans le répertoire de votre projet :

    cd <répertoire-de-votre-projet>
    
  2. Exécutez la commande suivante :

    npx lingo.dev@latest init
    
  3. Suivez les instructions.

Le CLI créera un fichier i18n.json pour configurer le pipeline de traduction.

Étape 2. Configurer un bucket

Dans le fichier i18n.json, configurez au moins un bucket :

{
  "$schema": "https://lingo.dev/schema/i18n.json",
  "version": 1.8,
  "locale": {
    "source": "en",
    "targets": ["es"]
  },
  "buckets": {
    "json": {
      "include": ["locales/[locale].json"]
    }
  }
}

Les buckets déterminent l'analyseur que Lingo.dev CLI utilise pour extraire le contenu traduisible. Par exemple, le bucket "json" est spécifiquement conçu pour traduire des fichiers JSON.

La configuration d'un bucket doit définir un ou plusieurs modèles include, qui spécifient quels fichiers doivent être traduits. (Vous pouvez éventuellement spécifier des modèles exclude pour un contrôle supplémentaire.)

Notez que :

  • Les modèles include de certains buckets doivent contenir un espace réservé spécial [locale], mais dans d'autres cas, cet espace réservé est strictement interdit.
  • Certains buckets prennent en charge des fonctionnalités supplémentaires, comme le verrouillage de clés.

Pour en savoir plus sur les exigences exactes de chaque bucket, consultez la documentation de chaque bucket, comme JSON ou CSV.

Étape 3. Configurer un fournisseur de LLM

Après que Lingo.dev CLI extrait le contenu d'un fichier, il l'envoie à un grand modèle de langage (LLM) pour traduction, avant d'écrire le contenu traduit dans le système de fichiers.

Nous recommandons d'utiliser Lingo.dev Engine — notre propre plateforme hébergée — comme fournisseur de LLM, mais ce n'est pas strictement nécessaire. Le CLI prend en charge plusieurs fournisseurs tiers, tels qu'Anthropic et OpenAI.

Lingo.dev Engine

  1. Connectez-vous à Lingo.dev Engine.
  2. Naviguez vers la page Projets.
  3. Cliquez sur Clé API > Copier.
  4. Définissez une variable d'environnement LINGODOTDEV_API_KEY avec la clé API comme valeur.

Fournisseur tiers

  1. Obtenez une clé API auprès de l'un des fournisseurs pris en charge.

  2. Définissez une variable d'environnement avec la clé API comme valeur :

    • Si vous utilisez Anthropic, définissez ANTHROPIC_API_KEY
    • Si vous utilisez Google, définissez GOOGLE_API_KEY
    • Si vous utilisez Mistral, définissez MISTRAL_API_KEY
    • Si vous utilisez OpenAI, définissez OPENAI_API_KEY
    • Si vous utilisez OpenRouter, définissez OPENROUTER_API_KEY
  3. Dans le fichier i18n.json, ajoutez un objet provider avec les propriétés suivantes :

    • id - L'identifiant du fournisseur LLM (par exemple, openai).
    • model - L'identifiant d'un modèle spécifique de ce fournisseur LLM (par exemple, gpt-4o-mini).
    • prompt - Le prompt à envoyer avec toutes les requêtes LLM. Utilisez {source} et {target} comme valeurs de substitution pour les locales source et cible. Ces valeurs seront remplacées à l'exécution.

    Par exemple :

    {
      "$schema": "https://lingo.dev/schema/i18n.json",
      "version": 1.8,
      "locale": {
        "source": "en",
        "targets": ["es"]
      },
      "buckets": {
        "json": {
          "include": ["locales/[locale].json"]
        }
      },
      "provider": {
        "id": "openai",
        "model": "gpt-4o-mini",
        "prompt": "Translate the provided text from {source} to {target}."
      }
    }
    

Pour en savoir plus sur les options disponibles, consultez i18n.json.

Étape 4. Générer des traductions

Dans le répertoire du projet, exécutez la commande suivante :

npx lingo.dev@latest run

Le CLI va :

  1. Déterminer quels fichiers doivent être traduits, selon le fichier i18n.json.
  2. Extraire le contenu traduisible des fichiers.
  3. Envoyer le contenu au fournisseur LLM configuré pour traduction.
  4. Écrire le contenu traduit dans le système de fichiers.
  5. Créer un fichier i18n.lock pour suivre le contenu traduit.

Pour en savoir plus sur le cycle de vie complet, consultez Comment ça fonctionne.

Prochaines étapes

Consultez Commandes CLI pour la liste complète des commandes, options et drapeaux disponibles via l'interface en ligne de commande.