Démarrage rapide
Démarrez rapidement avec l'interface en ligne de commande de Lingo.dev
Introduction
Lingo.dev CLI est un CLI gratuit et open-source pour traduire des applications et du contenu avec l'IA. Ce guide de démarrage rapide explique comment commencer à utiliser Lingo.dev CLI en quelques minutes.
Étape 1. Initialiser un projet
-
Naviguez dans le répertoire de votre projet :
cd <répertoire-de-votre-projet> -
Exécutez la commande suivante :
npx lingo.dev@latest init -
Suivez les instructions.
Le CLI créera un fichier i18n.json pour configurer le pipeline de traduction.
Étape 2. Configurer un bucket
Dans le fichier i18n.json, configurez au moins un bucket :
{
"$schema": "https://lingo.dev/schema/i18n.json",
"version": "1.10",
"locale": {
"source": "en",
"targets": ["es"]
},
"buckets": {
"json": {
"include": ["locales/[locale].json"]
}
}
}
Les buckets déterminent l'analyseur que Lingo.dev CLI utilise pour extraire le contenu traduisible. Par exemple, le bucket "json" est spécifiquement conçu pour traduire les fichiers JSON.
La configuration d'un bucket doit définir un ou plusieurs modèles include, qui spécifient quels fichiers doivent être traduits. (Vous pouvez éventuellement spécifier des modèles exclude pour un contrôle supplémentaire.)
Notez que :
- Les modèles
includede certains buckets doivent contenir un placeholder spécial[locale], mais dans d'autres cas, ce placeholder est strictement interdit. - Certains buckets prennent en charge des fonctionnalités supplémentaires, comme le verrouillage de clés.
Pour en savoir plus sur les exigences exactes de chaque bucket, consultez la documentation de chaque bucket, comme JSON ou CSV.
Étape 3. Configurer un fournisseur de LLM
Après que Lingo.dev CLI extrait le contenu d'un fichier, il l'envoie à un grand modèle de langage (LLM) pour traduction, avant d'écrire le contenu traduit dans le système de fichiers.
Nous recommandons d'utiliser Lingo.dev Engine — notre propre plateforme hébergée — comme fournisseur de LLM, mais ce n'est pas strictement nécessaire. Le CLI prend en charge plusieurs fournisseurs tiers, tels qu'Anthropic et OpenAI.
Lingo.dev Engine
- Connectez-vous à Lingo.dev Engine.
- Naviguez vers la page Projets.
- Cliquez sur Clé API > Copier.
- Définissez une variable d'environnement
LINGODOTDEV_API_KEYavec la clé API comme valeur.
Fournisseur tiers
-
Obtenez une clé API auprès de l'un des fournisseurs pris en charge.
-
Définissez une variable d'environnement avec la clé API comme valeur :
- Si vous utilisez Anthropic, définissez
ANTHROPIC_API_KEY - Si vous utilisez Google, définissez
GOOGLE_API_KEY - Si vous utilisez Mistral, définissez
MISTRAL_API_KEY - Si vous utilisez OpenAI, définissez
OPENAI_API_KEY - Si vous utilisez OpenRouter, définissez
OPENROUTER_API_KEY
- Si vous utilisez Anthropic, définissez
-
Dans le fichier
i18n.json, ajoutez un objetprovideravec les propriétés suivantes :id- L'identifiant du fournisseur LLM (par exemple,openai).model- L'identifiant d'un modèle spécifique de ce fournisseur LLM (par exemple,gpt-4o-mini).prompt- Le prompt à envoyer avec toutes les requêtes LLM. Utilisez{source}et{target}comme valeurs de placeholder pour les locales source et cible. Ces valeurs seront remplacées lors de l'exécution.
Par exemple :
{ "$schema": "https://lingo.dev/schema/i18n.json", "version": "1.10", "locale": { "source": "en", "targets": ["es"] }, "buckets": { "json": { "include": ["locales/[locale].json"] } }, "provider": { "id": "openai", "model": "gpt-4o-mini", "prompt": "Translate the provided text from {source} to {target}." } }
Pour en savoir plus sur les options disponibles, consultez i18n.json.
Étape 4. Générer des traductions
Dans le répertoire du projet, exécutez la commande suivante :
npx lingo.dev@latest run
Le CLI va :
- Déterminer quels fichiers doivent être traduits, selon le fichier
i18n.json. - Extraire le contenu traduisible des fichiers.
- Envoyer le contenu au fournisseur LLM configuré pour traduction.
- Écrire le contenu traduit dans le système de fichiers.
- Créer un fichier
i18n.lockpour suivre le contenu traduit.
Pour en savoir plus sur le cycle de vie complet, consultez Comment ça fonctionne.
Prochaines étapes
Consultez Commandes CLI pour la liste complète des commandes, options et drapeaux disponibles via l'interface en ligne de commande.