Démarrage rapide
Démarrez avec Lingo.dev CLI
Introduction
Lingo.dev CLI est un CLI gratuit et open-source pour traduire des applications et du contenu avec l'IA. Ce guide de démarrage rapide explique comment démarrer avec Lingo.dev CLI en quelques minutes.
Étape 1. Initialiser un projet
-
Naviguez dans un répertoire de projet :
cd <your-project-directory> -
Exécutez la commande suivante :
npx lingo.dev@latest initUtilisateurs Windows : Si
npx lingo.devne fonctionne pas dans votre environnement :- Installez le package :
npm install lingo.dev@latest - Utilisez
npx lingoà la place (par exemple,npx lingo init)
- Installez le package :
-
Suivez les instructions.
Le CLI créera un fichier i18n.json pour configurer le pipeline de traduction.
Étape 2. Configurer un bucket
Dans le fichier i18n.json, configurez au moins un bucket :
{
"$schema": "https://lingo.dev/schema/i18n.json",
"version": "1.10",
"locale": {
"source": "en",
"targets": ["es"]
},
"buckets": {
"json": {
"include": ["locales/[locale].json"]
}
}
}
Les buckets déterminent le parseur que le CLI Lingo.dev utilise pour extraire le contenu traduisible. Par exemple, le bucket "json" est spécifiquement conçu pour traduire les fichiers JSON.
La configuration d'un bucket doit définir un ou plusieurs patterns include, qui spécifient quels fichiers doivent être traduits. (Vous pouvez éventuellement spécifier des patterns exclude pour un contrôle supplémentaire.)
Notez que :
- Les patterns
includede certains buckets doivent contenir un placeholder spécial[locale], mais dans d'autres cas ce placeholder est strictement interdit. - Certains buckets prennent en charge des fonctionnalités supplémentaires, telles que le verrouillage de clés.
Pour en savoir plus sur les exigences exactes de chaque bucket, consultez la documentation de chaque bucket, comme JSON ou CSV.
Étape 3. Configurer un fournisseur LLM
Après que le CLI Lingo.dev a extrait le contenu d'un fichier, il l'envoie à un grand modèle de langage (LLM) pour traduction, avant d'écrire le contenu traduit dans le système de fichiers.
Nous recommandons d'utiliser Lingo.dev Engine — notre propre plateforme hébergée — comme fournisseur LLM, mais ce n'est pas strictement obligatoire. Le CLI prend en charge plusieurs fournisseurs tiers, tels qu'Anthropic et OpenAI.
Moteur Lingo.dev
- Connectez-vous au moteur Lingo.dev.
- Accédez à la page Projets.
- Cliquez sur Clé API > Copier.
- Définissez une variable d'environnement
LINGODOTDEV_API_KEYavec la clé API comme valeur.
Fournisseur tiers
-
Obtenez une clé API auprès de l'un des fournisseurs pris en charge.
-
Définissez une variable d'environnement avec la clé API comme valeur :
- Si vous utilisez Anthropic, définissez
ANTHROPIC_API_KEY - Si vous utilisez Google, définissez
GOOGLE_API_KEY - Si vous utilisez Mistral, définissez
MISTRAL_API_KEY - Si vous utilisez OpenAI, définissez
OPENAI_API_KEY - Si vous utilisez OpenRouter, définissez
OPENROUTER_API_KEY - Si vous utilisez Ollama, aucune clé API n'est nécessaire (s'exécute localement)
- Si vous utilisez Anthropic, définissez
-
Dans le fichier
i18n.json, ajoutez un objetprovideravec les propriétés suivantes :id- L'identifiant du fournisseur LLM (par exemple,openai).model- L'identifiant d'un modèle spécifique de ce fournisseur LLM (par exemple,gpt-4o-mini).prompt- Le prompt à envoyer avec toutes les requêtes LLM. Utilisez{source}et{target}comme valeurs de substitution pour les locales source et cible. Elles seront remplacées à l'exécution.
Par exemple :
{ "$schema": "https://lingo.dev/schema/i18n.json", "version": "1.10", "locale": { "source": "en", "targets": ["es"] }, "buckets": { "json": { "include": ["locales/[locale].json"] } }, "provider": { "id": "openai", "model": "gpt-4o-mini", "prompt": "Translate the provided text from {source} to {target}." } }
Pour en savoir plus sur les options disponibles, consultez i18n.json.
Ollama
-
Installez Ollama depuis ollama.com.
-
Téléchargez un modèle (par exemple,
ollama pull llama3.2ouollama pull mistral). -
Assurez-vous que le service Ollama s'exécute localement.
-
Configurez le fournisseur dans
i18n.json:{ "$schema": "https://lingo.dev/schema/i18n.json", "version": "1.10", "locale": { "source": "en", "targets": ["es"] }, "buckets": { "json": { "include": ["locales/[locale].json"] } }, "provider": { "id": "ollama", "model": "llama3.2", "baseUrl": "http://localhost:11434", "prompt": "Translate the provided text from {source} to {target}." } }
Aucune clé API n'est requise puisque Ollama s'exécute localement sur votre machine.
Étape 4. Générer les traductions
Dans le répertoire du projet, exécutez la commande suivante :
npx lingo.dev@latest run
Utilisateurs Windows : Si
npx lingo.devne fonctionne pas dans votre environnement :
- Installez le package :
npm install lingo.dev@latest- Utilisez
npx lingoà la place (par exemple,npx lingo run)
Le CLI va :
- Déterminer quels fichiers doivent être traduits, en fonction du fichier
i18n.json. - Extraire le contenu traduisible des fichiers.
- Envoyer le contenu au fournisseur LLM configuré pour traduction.
- Écrire le contenu traduit dans le système de fichiers.
- Créer un fichier
i18n.lockpour suivre le contenu traduit.
Pour en savoir plus sur le cycle de vie complet, consultez Comment ça fonctionne.
Prochaines étapes
Consultez Commandes CLI pour la liste complète des commandes, options et indicateurs disponibles via le CLI.