Übersetzungsanbieter

@lingo.dev/compiler unterstützt mehrere Übersetzungsanbieter – verwenden Sie Lingo.dev Engine für die beste Erfahrung oder verbinden Sie sich direkt mit LLM-Anbietern.

Lingo.dev Engine (empfohlen)

Lingo.dev Engine ist die einfachste und leistungsstärkste Methode, um Ihre App zu übersetzen. Sie bietet:

  • Dynamische Modellauswahl – Leitet automatisch zum besten Modell für jedes Sprachpaar weiter
  • Automatische Fallbacks – Wechselt zu Backup-Modellen, falls das primäre Modell fehlschlägt
  • Translation Memory – Berücksichtigt frühere Übersetzungen für Konsistenz
  • Glossar-Unterstützung – Pflegt domänenspezifische Terminologie
  • Kostenoptimierung – Verwendet effiziente Modelle, wo angemessen

Einrichtung

  1. Registrieren Sie sich unter lingo.dev

  2. Authentifizieren Sie sich:

    npx lingo.dev@latest login
    
  3. Konfigurieren Sie:

    {
      models: "lingo.dev"
    }
    

Preise: Kostenloser Hobby-Tarif verfügbar. Ausreichend für die meisten Projekte.

Manueller API-Schlüssel

Falls die Browser-Authentifizierung fehlschlägt (z. B. Brave-Browser blockiert), fügen Sie den API-Schlüssel zu .env hinzu:

LINGODOTDEV_API_KEY=your_key_here

Finden Sie Ihren API-Schlüssel in den Projekteinstellungen unter lingo.dev.

Direkte LLM-Anbieter

Verbinden Sie sich direkt mit LLM-Anbietern für volle Kontrolle über Modellauswahl und Kosten.

Unterstützte Anbieter

AnbieterModell-String-FormatUmgebungsvariableAPI-Schlüssel erhalten
OpenAIopenai:gpt-4oOPENAI_API_KEYplatform.openai.com
Anthropicanthropic:claude-3-5-sonnetANTHROPIC_API_KEYconsole.anthropic.com
Googlegoogle:gemini-2.0-flashGOOGLE_API_KEYai.google.dev
Groqgroq:llama-3.3-70b-versatileGROQ_API_KEYconsole.groq.com
Mistralmistral:mistral-largeMISTRAL_API_KEYconsole.mistral.ai
OpenRouteropenrouter:anthropic/claude-3.5-sonnetOPENROUTER_API_KEYopenrouter.ai
Ollamaollama:llama3.2(keine)ollama.com (lokal)

Einfache Konfiguration

Verwenden Sie einen einzelnen Anbieter für alle Übersetzungen:

{
  models: {
    "*:*": "groq:llama-3.3-70b-versatile"
  }
}

Locale-Pair-Mapping

Verwenden Sie verschiedene Anbieter für unterschiedliche Sprachpaare:

{
  models: {
    // Specific pairs
    "en:es": "groq:llama-3.3-70b-versatile",    // Fast & cheap for Spanish
    "en:de": "google:gemini-2.0-flash",         // Good quality for German
    "en:ja": "openai:gpt-4o",                   // High quality for Japanese

    // Wildcards
    "*:fr": "anthropic:claude-3-5-sonnet",      // All sources → French
    "en:*": "google:gemini-2.0-flash",          // English → all targets

    // Fallback
    "*:*": "lingo.dev",                         // Everything else
  }
}

Priorität der Musterübereinstimmung:

  1. Exakte Übereinstimmung ("en:es")
  2. Quell-Wildcard ("*:es")
  3. Ziel-Wildcard ("en:*")
  4. Globale Wildcard ("*:*")

API-Key-Einrichtung

Fügen Sie Anbieter-API-Keys zu .env hinzu:

# Lingo.dev Engine
LINGODOTDEV_API_KEY=your_key

# OpenAI
OPENAI_API_KEY=sk-...

# Anthropic
ANTHROPIC_API_KEY=sk-ant-...

# Google
GOOGLE_API_KEY=...

# Groq
GROQ_API_KEY=gsk_...

# Mistral
MISTRAL_API_KEY=...

# OpenRouter
OPENROUTER_API_KEY=sk-or-...

Committen Sie niemals .env-Dateien—fügen Sie sie zu .gitignore hinzu.

Leitfaden zur Modellauswahl

Für die Entwicklung

Verwenden Sie Pseudotranslator—sofort, kostenlos, keine API-Keys erforderlich:

{
  dev: {
    usePseudotranslator: true,
  }
}

Für budgetbewusste Projekte

Groq - Schnelle Inferenz, großzügiges kostenloses Kontingent:

{
  models: {
    "*:*": "groq:llama-3.3-70b-versatile",
  }
}

Google Gemini - Wettbewerbsfähige Preise, gute Qualität:

{
  models: {
    "*:*": "google:gemini-2.0-flash",
  }
}

Für hohe Qualität

OpenAI GPT-4 - Beste Gesamtqualität:

{
  models: {
    "*:*": "openai:gpt-4o",
  }
}

Anthropic Claude - Hervorragend für nuancierte Übersetzungen:

{
  models: {
    "*:*": "anthropic:claude-3-5-sonnet",
  }
}

Für lokal/offline

Ollama - Modelle lokal ausführen:

{
  models: {
    "*:*": "ollama:llama3.2",
  }
}

Ollama installieren und ein Modell herunterladen:

curl -fsSL https://ollama.com/install.sh | sh
ollama pull llama3.2

Gemischte Strategie (empfohlen)

Kosten optimieren, indem verschiedene Modelle pro Sprache verwendet werden:

{
  models: {
    // Fast & cheap for Romance languages
    "en:es": "groq:llama-3.3-70b-versatile",
    "en:fr": "groq:llama-3.3-70b-versatile",
    "en:pt": "groq:llama-3.3-70b-versatile",

    // Higher quality for complex languages
    "en:ja": "openai:gpt-4o",
    "en:zh": "openai:gpt-4o",
    "en:ar": "openai:gpt-4o",

    // Good balance for European languages
    "en:de": "google:gemini-2.0-flash",
    "en:nl": "google:gemini-2.0-flash",

    // Fallback
    "*:*": "lingo.dev",
  }
}

Benutzerdefinierte Übersetzungsprompts

Die an LLMs gesendete Übersetzungsanweisung anpassen:

{
  models: "lingo.dev",
  prompt: `Translate from {SOURCE_LOCALE} to {TARGET_LOCALE}.

Guidelines:
- Use a professional tone
- Preserve all technical terms
- Do not translate brand names
- Maintain formatting (bold, italic, etc.)
- Use gender-neutral language where possible`
}

Verfügbare Platzhalter:

  • {SOURCE_LOCALE}: Quell-Locale-Code (z. B. "en")
  • {TARGET_LOCALE}: Ziel-Locale-Code (z. B. "es")

Der Compiler fügt automatisch Kontext über den zu übersetzenden Text hinzu (Datei, Komponente, umgebende Elemente).

Anbieterspezifische Modelle

OpenAI

"openai:gpt-4o"              // Best quality
"openai:gpt-4o-mini"         // Faster, cheaper
"openai:gpt-4-turbo"         // Previous generation

Anthropic

"anthropic:claude-3-5-sonnet"  // Best quality
"anthropic:claude-3-haiku"     // Faster, cheaper
"anthropic:claude-3-opus"      // Highest quality (expensive)

Google

"google:gemini-2.0-flash"      // Fast, efficient
"google:gemini-1.5-pro"        // Higher quality

Groq

"groq:llama-3.3-70b-versatile"  // Fast inference
"groq:mixtral-8x7b-32768"       // Good quality

Mistral

"mistral:mistral-large"         // Best quality
"mistral:mistral-small"         // Faster, cheaper

OpenRouter

OpenRouter bietet Zugriff auf über 100 Modelle. Verwenden Sie Modell-IDs von openrouter.ai/models:

"openrouter:anthropic/claude-3.5-sonnet"
"openrouter:google/gemini-2.0-flash"
"openrouter:meta-llama/llama-3.3-70b"

Ollama

Verwenden Sie ein beliebiges Ollama-Modell:

"ollama:llama3.2"
"ollama:mistral"
"ollama:qwen2.5"

Verfügbare Modelle auflisten: ollama list

OpenAI-kompatible Anbieter

Sie können jede OpenAI-kompatible API verwenden, indem Sie OPENAI_BASE_URL so einstellen, dass es auf den Endpunkt des Anbieters verweist. Dies funktioniert mit Anbietern wie Nebius, Together AI, Anyscale und Fireworks.

Hinweis Nebius ist der einzige OpenAI-kompatible Anbieter, der offiziell mit dem Lingo.dev-Compiler getestet wurde. Andere unten aufgeführte Anbieter stellen OpenAI-kompatible APIs bereit, sind jedoch nicht offiziell getestet.

Einrichtung

  1. Legen Sie die Umgebungsvariablen fest:
OPENAI_API_KEY=<your-provider-api-key>
OPENAI_BASE_URL=<provider-api-endpoint>
  1. Verwenden Sie das Präfix openai: mit der Modell-ID des Anbieters:
{
  models: {
    "*:*": "openai:provider-model-id"
  }
}

Unterstützte Anbieter

AnbieterBasis-URLBeispielmodell
Nebiushttps://api.tokenfactory.nebius.com/v1google/gemma-2-9b-it-fast
Together AIhttps://api.together.xyz/v1meta-llama/Llama-3-70b-chat-hf
Anyscalehttps://api.endpoints.anyscale.com/v1meta-llama/Llama-2-70b-chat-hf
Fireworkshttps://api.fireworks.ai/inference/v1accounts/fireworks/models/llama-v3-70b-instruct
Beispielmodelle dienen zur Veranschaulichung. Verfügbarkeit und Modell-IDs können sich im Laufe der Zeit ändern. Überprüfen Sie stets die aktuelle Modellliste über die API des Anbieters.

Häufig gestellte Fragen

Welchen Anbieter sollte ich verwenden? Beginnen Sie mit Lingo.dev Engine für mehr Einfachheit. Für vollständige Kontrolle und Kostenoptimierung verwenden Sie Locale-Pair-Mapping mit mehreren Anbietern.

Benötige ich API-Schlüssel in der Produktion? Nein. Verwenden Sie buildMode: "cache-only" in der Produktion – Übersetzungen werden vorab generiert. Siehe Build-Modi.

Kann ich Anbieter mischen? Ja. Verwenden Sie Locale-Pair-Mapping, um verschiedene Sprachpaare an verschiedene Anbieter weiterzuleiten.

Was passiert, wenn mein API-Schlüssel ungültig ist? Der Compiler schlägt mit einer klaren Fehlermeldung fehl. Überprüfen Sie Ihre .env-Datei und stellen Sie sicher, dass der API-Schlüssel für den konfigurierten Anbieter korrekt ist.

Kann ich benutzerdefinierte Modelle verwenden? OpenRouter unterstützt über 100 Modelle. Ollama unterstützt jedes lokal installierte Modell. Andere Anbieter sind auf ihren Modellkatalog beschränkt.

Wie teste ich ohne API-Aufrufe? Aktivieren Sie den Pseudotranslator in der Entwicklung:

{
  dev: { usePseudotranslator: true }
}

Was ist der Kostenunterschied zwischen Anbietern? Variiert erheblich. Groq bietet ein großzügiges kostenloses Kontingent. OpenAI GPT-4 hat Premium-Preise. Google Gemini ist wettbewerbsfähig bepreist. Prüfen Sie die Preisseite jedes Anbieters.

Nächste Schritte