Schnellstart

Erste Schritte mit der Lingo.dev CLI

Einführung

Die Lingo.dev CLI ist eine kostenlose Open-Source-CLI zur Übersetzung von Apps und Inhalten mit KI. Diese Schnellstartanleitung erklärt, wie Sie innerhalb weniger Minuten mit der Lingo.dev CLI loslegen können.

Schritt 1. Projekt initialisieren

  1. Navigieren Sie in ein Projektverzeichnis:

    cd <your-project-directory>
    
  2. Führen Sie folgenden Befehl aus:

    npx lingo.dev@latest init
    

    Windows-Benutzer: Falls npx lingo.dev in Ihrer Umgebung nicht ausgeführt wird:

    1. Installieren Sie das Paket: npm install lingo.dev@latest
    2. Verwenden Sie stattdessen npx lingo (z. B. npx lingo init)
  3. Folgen Sie den Anweisungen.

Die CLI erstellt eine i18n.json-Datei zur Konfiguration der Übersetzungspipeline.

Schritt 2. Einen Bucket konfigurieren

Konfigurieren Sie in der i18n.json-Datei mindestens einen Bucket:

{
  "$schema": "https://lingo.dev/schema/i18n.json",
  "version": "1.10",
  "locale": {
    "source": "en",
    "targets": ["es"]
  },
  "buckets": {
    "json": {
      "include": ["locales/[locale].json"]
    }
  }
}

Buckets bestimmen den Parser, den die Lingo.dev CLI zum Extrahieren übersetzbarer Inhalte verwendet. Beispielsweise ist der "json"-Bucket speziell für die Übersetzung von JSON-Dateien konzipiert.

Die Konfiguration eines Buckets muss ein oder mehrere include-Muster definieren, die festlegen, welche Dateien übersetzt werden sollen. (Optional können Sie exclude-Muster für zusätzliche Kontrolle angeben.)

Beachten Sie:

  • Die include-Muster bestimmter Buckets müssen einen speziellen [locale]-Platzhalter enthalten, in anderen Fällen ist dieser Platzhalter jedoch strikt nicht erlaubt.
  • Einige Buckets unterstützen zusätzliche Funktionen, wie z. B. Key-Locking.

Um mehr über die genauen Anforderungen für jeden Bucket zu erfahren, lesen Sie die Dokumentation für jeden Bucket, wie z. B. JSON oder CSV.

Schritt 3. Einen LLM-Provider konfigurieren

Nachdem die Lingo.dev CLI Inhalte aus einer Datei extrahiert hat, sendet sie diese zur Übersetzung an ein Large Language Model (LLM), bevor die übersetzten Inhalte zurück ins Dateisystem geschrieben werden.

Wir empfehlen die Verwendung der Lingo.dev Engine – unserer eigenen, gehosteten Plattform – als LLM-Provider, dies ist jedoch nicht zwingend erforderlich. Die CLI unterstützt eine Reihe von Drittanbieter-Providern, wie z. B. Anthropic und OpenAI.

Lingo.dev Engine

  1. Melden Sie sich bei Lingo.dev Engine an.
  2. Navigieren Sie zur Seite Projekte.
  3. Klicken Sie auf API-Schlüssel > Kopieren.
  4. Setzen Sie eine Umgebungsvariable LINGODOTDEV_API_KEY mit dem API-Schlüssel als Wert.

Drittanbieter

  1. Beziehen Sie einen API-Schlüssel von einem der unterstützten Anbieter.

  2. Setzen Sie eine Umgebungsvariable mit dem API-Schlüssel als Wert:

    • Wenn Sie Anthropic verwenden, setzen Sie ANTHROPIC_API_KEY
    • Wenn Sie Google verwenden, setzen Sie GOOGLE_API_KEY
    • Wenn Sie Mistral verwenden, setzen Sie MISTRAL_API_KEY
    • Wenn Sie OpenAI verwenden, setzen Sie OPENAI_API_KEY
    • Wenn Sie OpenRouter verwenden, setzen Sie OPENROUTER_API_KEY
    • Wenn Sie Ollama verwenden, wird kein API-Schlüssel benötigt (läuft lokal)
  3. Fügen Sie in der Datei i18n.json ein Objekt provider mit den folgenden Eigenschaften hinzu:

    • id - Die ID des LLM-Anbieters (z. B. openai).
    • model - Die ID eines bestimmten Modells dieses LLM-Anbieters (z. B. gpt-4o-mini).
    • prompt - Der Prompt, der mit allen LLM-Anfragen gesendet wird. Verwenden Sie {source} und {target} als Platzhalterwerte für die Quell- und Zielsprachen. Diese werden zur Laufzeit ersetzt.

    Beispiel:

    {
      "$schema": "https://lingo.dev/schema/i18n.json",
      "version": "1.10",
      "locale": {
        "source": "en",
        "targets": ["es"]
      },
      "buckets": {
        "json": {
          "include": ["locales/[locale].json"]
        }
      },
      "provider": {
        "id": "openai",
        "model": "gpt-4o-mini",
        "prompt": "Translate the provided text from {source} to {target}."
      }
    }
    

Weitere Informationen zu den verfügbaren Optionen finden Sie unter i18n.json.

Ollama

  1. Installieren Sie Ollama von ollama.com.

  2. Laden Sie ein Modell herunter (z. B. ollama pull llama3.2 oder ollama pull mistral).

  3. Stellen Sie sicher, dass der Ollama-Dienst lokal läuft.

  4. Konfigurieren Sie den Anbieter in i18n.json:

    {
      "$schema": "https://lingo.dev/schema/i18n.json",
      "version": "1.10",
      "locale": {
        "source": "en",
        "targets": ["es"]
      },
      "buckets": {
        "json": {
          "include": ["locales/[locale].json"]
        }
      },
      "provider": {
        "id": "ollama",
        "model": "llama3.2",
        "baseUrl": "http://localhost:11434",
        "prompt": "Translate the provided text from {source} to {target}."
      }
    }
    

Es ist kein API-Schlüssel erforderlich, da Ollama lokal auf Ihrem Rechner läuft.

Schritt 4. Übersetzungen generieren

Führen Sie im Projektverzeichnis den folgenden Befehl aus:

npx lingo.dev@latest run

Windows-Benutzer: Falls npx lingo.dev in Ihrer Umgebung nicht ausgeführt wird:

  1. Installieren Sie das Paket: npm install lingo.dev@latest
  2. Verwenden Sie stattdessen npx lingo (z. B. npx lingo run)

Die CLI wird:

  1. Bestimmen, welche Dateien übersetzt werden müssen, basierend auf der i18n.json-Datei.
  2. Den übersetzbaren Inhalt aus den Dateien extrahieren.
  3. Den Inhalt zur Übersetzung an den konfigurierten LLM-Anbieter senden.
  4. Den übersetzten Inhalt zurück in das Dateisystem schreiben.
  5. Eine i18n.lock-Datei erstellen, um den übersetzten Inhalt nachzuverfolgen.

Weitere Informationen zum vollständigen Lebenszyklus finden Sie unter Funktionsweise.

Nächste Schritte

Eine vollständige Liste der über die CLI verfügbaren Befehle, Optionen und Flags finden Sie unter CLI-Befehle.