Schnellstart
Starten Sie mit der Lingo.dev CLI
Einführung
Lingo.dev CLI ist eine kostenlose, Open-Source-CLI zur Übersetzung von Apps und Inhalten mit KI. Diese Schnellstartanleitung erklärt, wie Sie Lingo.dev CLI in wenigen Minuten einrichten und verwenden können.
Schritt 1. Ein Projekt initialisieren
-
Navigieren Sie in ein Projektverzeichnis:
cd <ihr-projektverzeichnis>
-
Führen Sie folgenden Befehl aus:
npx lingo.dev@latest init
-
Folgen Sie den Anweisungen.
Die CLI erstellt eine i18n.json
-Datei zur Konfiguration der Übersetzungspipeline.
Schritt 2. Einen Bucket konfigurieren
Konfigurieren Sie in der i18n.json
-Datei mindestens einen Bucket:
{
"$schema": "https://lingo.dev/schema/i18n.json",
"version": 1.8,
"locale": {
"source": "en",
"targets": ["es"]
},
"buckets": {
"json": {
"include": ["locales/[locale].json"]
}
}
}
Buckets bestimmen den Parser, den Lingo.dev CLI zum Extrahieren übersetzbarer Inhalte verwendet. Der "json"
-Bucket ist beispielsweise speziell für die Übersetzung von JSON-Dateien konzipiert.
Die Konfiguration eines Buckets muss ein oder mehrere include
-Muster definieren, die angeben, welche Dateien übersetzt werden sollen. (Optional können Sie exclude
-Muster für zusätzliche Kontrolle angeben.)
Beachten Sie, dass:
- Die
include
-Muster bestimmter Buckets müssen einen speziellen[locale]
-Platzhalter enthalten, in anderen Fällen ist dieser Platzhalter jedoch strikt nicht erlaubt. - Einige Buckets unterstützen zusätzliche Funktionen, wie z.B. Key-Locking.
Um mehr über die genauen Anforderungen für jeden Bucket zu erfahren, lesen Sie die Dokumentation für jeden Bucket, wie z.B. JSON oder CSV.
Schritt 3. Einen LLM-Provider konfigurieren
Nachdem Lingo.dev CLI Inhalte aus einer Datei extrahiert hat, sendet es diese zur Übersetzung an ein großes Sprachmodell (LLM), bevor die übersetzten Inhalte zurück in das Dateisystem geschrieben werden.
Wir empfehlen die Verwendung von Lingo.dev Engine — unserer eigenen, gehosteten Plattform — als LLM-Provider, aber dies ist nicht zwingend erforderlich. Die CLI unterstützt eine Reihe von Drittanbieter-Providern wie Anthropic und OpenAI.
Lingo.dev Engine
- Melden Sie sich bei Lingo.dev Engine an.
- Navigieren Sie zur Seite Projekte.
- Klicken Sie auf API-Schlüssel > Kopieren.
- Setzen Sie eine Umgebungsvariable
LINGODOTDEV_API_KEY
mit dem API-Schlüssel als Wert.
Drittanbieter
-
Besorgen Sie sich einen API-Schlüssel von einem der unterstützten Anbieter.
-
Setzen Sie eine Umgebungsvariable mit dem API-Schlüssel als Wert:
- Wenn Sie Anthropic verwenden, setzen Sie
ANTHROPIC_API_KEY
- Wenn Sie Google verwenden, setzen Sie
GOOGLE_API_KEY
- Wenn Sie Mistral verwenden, setzen Sie
MISTRAL_API_KEY
- Wenn Sie OpenAI verwenden, setzen Sie
OPENAI_API_KEY
- Wenn Sie OpenRouter verwenden, setzen Sie
OPENROUTER_API_KEY
- Wenn Sie Anthropic verwenden, setzen Sie
-
Fügen Sie in der Datei
i18n.json
einprovider
-Objekt mit folgenden Eigenschaften hinzu:id
- Die ID des LLM-Anbieters (z.B.openai
).model
- Die ID eines spezifischen Modells dieses LLM-Anbieters (z.B.gpt-4o-mini
).prompt
- Der Prompt, der mit allen LLM-Anfragen gesendet wird. Verwenden Sie{source}
und{target}
als Platzhalter für die Quell- und Zielsprachen. Diese werden zur Laufzeit ersetzt.
Beispiel:
{ "$schema": "https://lingo.dev/schema/i18n.json", "version": 1.8, "locale": { "source": "en", "targets": ["es"] }, "buckets": { "json": { "include": ["locales/[locale].json"] } }, "provider": { "id": "openai", "model": "gpt-4o-mini", "prompt": "Translate the provided text from {source} to {target}." } }
Um mehr über die verfügbaren Optionen zu erfahren, siehe i18n.json.
Schritt 4. Übersetzungen generieren
Führen Sie im Projektverzeichnis den folgenden Befehl aus:
npx lingo.dev@latest run
Die CLI wird:
- Ermitteln, welche Dateien basierend auf der
i18n.json
-Datei übersetzt werden müssen. - Den übersetzbaren Inhalt aus den Dateien extrahieren.
- Den Inhalt an den konfigurierten LLM-Anbieter zur Übersetzung senden.
- Den übersetzten Inhalt zurück in das Dateisystem schreiben.
- Eine
i18n.lock
-Datei erstellen, um übersetzte Inhalte zu verfolgen.
Um mehr über den vollständigen Lebenszyklus zu erfahren, siehe Wie es funktioniert.
Nächste Schritte
Siehe CLI-Befehle für die vollständige Liste der Befehle, Optionen und Flags, die über die CLI verfügbar sind.