Schnellstart
Erste Schritte mit der Lingo.dev CLI
Einführung
Die Lingo.dev CLI ist eine kostenlose Open-Source-CLI zur Übersetzung von Apps und Inhalten mit KI. Diese Schnellstartanleitung erklärt, wie Sie innerhalb weniger Minuten mit der Lingo.dev CLI loslegen können.
Schritt 1. Projekt initialisieren
-
Navigieren Sie in ein Projektverzeichnis:
cd <your-project-directory> -
Führen Sie folgenden Befehl aus:
npx lingo.dev@latest initWindows-Benutzer: Falls
npx lingo.devin Ihrer Umgebung nicht ausgeführt wird:- Installieren Sie das Paket:
npm install lingo.dev@latest - Verwenden Sie stattdessen
npx lingo(z. B.npx lingo init)
- Installieren Sie das Paket:
-
Folgen Sie den Anweisungen.
Die CLI erstellt eine i18n.json-Datei zur Konfiguration der Übersetzungspipeline.
Schritt 2. Einen Bucket konfigurieren
Konfigurieren Sie in der i18n.json-Datei mindestens einen Bucket:
{
"$schema": "https://lingo.dev/schema/i18n.json",
"version": "1.10",
"locale": {
"source": "en",
"targets": ["es"]
},
"buckets": {
"json": {
"include": ["locales/[locale].json"]
}
}
}
Buckets bestimmen den Parser, den die Lingo.dev CLI zum Extrahieren übersetzbarer Inhalte verwendet. Beispielsweise ist der "json"-Bucket speziell für die Übersetzung von JSON-Dateien konzipiert.
Die Konfiguration eines Buckets muss ein oder mehrere include-Muster definieren, die festlegen, welche Dateien übersetzt werden sollen. (Optional können Sie exclude-Muster für zusätzliche Kontrolle angeben.)
Beachten Sie:
- Die
include-Muster bestimmter Buckets müssen einen speziellen[locale]-Platzhalter enthalten, in anderen Fällen ist dieser Platzhalter jedoch strikt nicht erlaubt. - Einige Buckets unterstützen zusätzliche Funktionen, wie z. B. Key-Locking.
Um mehr über die genauen Anforderungen für jeden Bucket zu erfahren, lesen Sie die Dokumentation für jeden Bucket, wie z. B. JSON oder CSV.
Schritt 3. Einen LLM-Provider konfigurieren
Nachdem die Lingo.dev CLI Inhalte aus einer Datei extrahiert hat, sendet sie diese zur Übersetzung an ein Large Language Model (LLM), bevor die übersetzten Inhalte zurück ins Dateisystem geschrieben werden.
Wir empfehlen die Verwendung der Lingo.dev Engine – unserer eigenen, gehosteten Plattform – als LLM-Provider, dies ist jedoch nicht zwingend erforderlich. Die CLI unterstützt eine Reihe von Drittanbieter-Providern, wie z. B. Anthropic und OpenAI.
Lingo.dev Engine
- Melden Sie sich bei Lingo.dev Engine an.
- Navigieren Sie zur Seite Projekte.
- Klicken Sie auf API-Schlüssel > Kopieren.
- Setzen Sie eine Umgebungsvariable
LINGODOTDEV_API_KEYmit dem API-Schlüssel als Wert.
Drittanbieter
-
Beziehen Sie einen API-Schlüssel von einem der unterstützten Anbieter.
-
Setzen Sie eine Umgebungsvariable mit dem API-Schlüssel als Wert:
- Wenn Sie Anthropic verwenden, setzen Sie
ANTHROPIC_API_KEY - Wenn Sie Google verwenden, setzen Sie
GOOGLE_API_KEY - Wenn Sie Mistral verwenden, setzen Sie
MISTRAL_API_KEY - Wenn Sie OpenAI verwenden, setzen Sie
OPENAI_API_KEY - Wenn Sie OpenRouter verwenden, setzen Sie
OPENROUTER_API_KEY - Wenn Sie Ollama verwenden, wird kein API-Schlüssel benötigt (läuft lokal)
- Wenn Sie Anthropic verwenden, setzen Sie
-
Fügen Sie in der Datei
i18n.jsonein Objektprovidermit den folgenden Eigenschaften hinzu:id- Die ID des LLM-Anbieters (z. B.openai).model- Die ID eines bestimmten Modells dieses LLM-Anbieters (z. B.gpt-4o-mini).prompt- Der Prompt, der mit allen LLM-Anfragen gesendet wird. Verwenden Sie{source}und{target}als Platzhalterwerte für die Quell- und Zielsprachen. Diese werden zur Laufzeit ersetzt.
Beispiel:
{ "$schema": "https://lingo.dev/schema/i18n.json", "version": "1.10", "locale": { "source": "en", "targets": ["es"] }, "buckets": { "json": { "include": ["locales/[locale].json"] } }, "provider": { "id": "openai", "model": "gpt-4o-mini", "prompt": "Translate the provided text from {source} to {target}." } }
Weitere Informationen zu den verfügbaren Optionen finden Sie unter i18n.json.
Ollama
-
Installieren Sie Ollama von ollama.com.
-
Laden Sie ein Modell herunter (z. B.
ollama pull llama3.2oderollama pull mistral). -
Stellen Sie sicher, dass der Ollama-Dienst lokal läuft.
-
Konfigurieren Sie den Anbieter in
i18n.json:{ "$schema": "https://lingo.dev/schema/i18n.json", "version": "1.10", "locale": { "source": "en", "targets": ["es"] }, "buckets": { "json": { "include": ["locales/[locale].json"] } }, "provider": { "id": "ollama", "model": "llama3.2", "baseUrl": "http://localhost:11434", "prompt": "Translate the provided text from {source} to {target}." } }
Es ist kein API-Schlüssel erforderlich, da Ollama lokal auf Ihrem Rechner läuft.
Schritt 4. Übersetzungen generieren
Führen Sie im Projektverzeichnis den folgenden Befehl aus:
npx lingo.dev@latest run
Windows-Benutzer: Falls
npx lingo.devin Ihrer Umgebung nicht ausgeführt wird:
- Installieren Sie das Paket:
npm install lingo.dev@latest- Verwenden Sie stattdessen
npx lingo(z. B.npx lingo run)
Die CLI wird:
- Bestimmen, welche Dateien übersetzt werden müssen, basierend auf der
i18n.json-Datei. - Den übersetzbaren Inhalt aus den Dateien extrahieren.
- Den Inhalt zur Übersetzung an den konfigurierten LLM-Anbieter senden.
- Den übersetzten Inhalt zurück in das Dateisystem schreiben.
- Eine
i18n.lock-Datei erstellen, um den übersetzten Inhalt nachzuverfolgen.
Weitere Informationen zum vollständigen Lebenszyklus finden Sie unter Funktionsweise.
Nächste Schritte
Eine vollständige Liste der über die CLI verfügbaren Befehle, Optionen und Flags finden Sie unter CLI-Befehle.