번역 제공자

@lingo.dev/compiler는 여러 번역 제공자를 지원합니다. 최상의 경험을 위해 Lingo.dev Engine을 사용하거나 LLM 제공자에 직접 연결하세요.

Lingo.dev Engine (권장)

Lingo.dev Engine은 앱을 번역하는 가장 쉽고 강력한 방법입니다. 다음 기능을 제공합니다:

  • 동적 모델 선택 - 각 언어 쌍에 가장 적합한 모델로 자동 라우팅
  • 자동 대체 - 기본 모델이 실패하면 백업 모델로 전환
  • 번역 메모리 - 일관성을 위해 과거 번역 고려
  • 용어집 지원 - 도메인별 용어 유지
  • 비용 최적화 - 적절한 경우 효율적인 모델 사용

설정

  1. lingo.dev에서 가입

  2. 인증:

    npx lingo.dev@latest login
    
  3. 구성:

    {
      models: "lingo.dev"
    }
    

가격: 무료 Hobby 티어 제공. 대부분의 프로젝트에 충분합니다.

수동 API 키

브라우저 인증이 실패하는 경우(예: Brave 브라우저 차단), .env에 API 키를 추가하세요:

LINGODOTDEV_API_KEY=your_key_here

lingo.dev의 프로젝트 설정에서 API 키를 확인하세요.

직접 LLM 제공자

모델 선택 및 비용을 완전히 제어하려면 LLM 제공자에 직접 연결하세요.

지원되는 제공자

제공자모델 문자열 형식환경 변수API 키 받기
OpenAIopenai:gpt-4oOPENAI_API_KEYplatform.openai.com
Anthropicanthropic:claude-3-5-sonnetANTHROPIC_API_KEYconsole.anthropic.com
Googlegoogle:gemini-2.0-flashGOOGLE_API_KEYai.google.dev
Groqgroq:llama-3.3-70b-versatileGROQ_API_KEYconsole.groq.com
Mistralmistral:mistral-largeMISTRAL_API_KEYconsole.mistral.ai
OpenRouteropenrouter:anthropic/claude-3.5-sonnetOPENROUTER_API_KEYopenrouter.ai
Ollamaollama:llama3.2(없음)ollama.com (로컬)

간단한 구성

모든 번역에 단일 제공자를 사용하세요:

{
  models: {
    "*:*": "groq:llama-3.3-70b-versatile"
  }
}

로케일 쌍 매핑

다른 언어 쌍에 다른 제공자를 사용하세요:

{
  models: {
    // Specific pairs
    "en:es": "groq:llama-3.3-70b-versatile",    // Fast & cheap for Spanish
    "en:de": "google:gemini-2.0-flash",         // Good quality for German
    "en:ja": "openai:gpt-4o",                   // High quality for Japanese

    // Wildcards
    "*:fr": "anthropic:claude-3-5-sonnet",      // All sources → French
    "en:*": "google:gemini-2.0-flash",          // English → all targets

    // Fallback
    "*:*": "lingo.dev",                         // Everything else
  }
}

패턴 매칭 우선순위:

  1. 정확한 일치 ("en:es")
  2. 소스 와일드카드 ("*:es")
  3. 대상 와일드카드 ("en:*")
  4. 전역 와일드카드 ("*:*")

API 키 설정

제공자 API 키를 .env에 추가하세요:

# Lingo.dev Engine
LINGODOTDEV_API_KEY=your_key

# OpenAI
OPENAI_API_KEY=sk-...

# Anthropic
ANTHROPIC_API_KEY=sk-ant-...

# Google
GOOGLE_API_KEY=...

# Groq
GROQ_API_KEY=gsk_...

# Mistral
MISTRAL_API_KEY=...

# OpenRouter
OPENROUTER_API_KEY=sk-or-...

.env 파일을 절대 커밋하지 마세요.gitignore에 추가하세요.

모델 선택 가이드

개발용

pseudotranslator를 사용하세요—즉시, 무료, API 키 불필요:

{
  dev: {
    usePseudotranslator: true,
  }
}

예산 중심 프로젝트용

Groq - 빠른 추론, 넉넉한 무료 티어:

{
  models: {
    "*:*": "groq:llama-3.3-70b-versatile",
  }
}

Google Gemini - 경쟁력 있는 가격, 우수한 품질:

{
  models: {
    "*:*": "google:gemini-2.0-flash",
  }
}

고품질용

OpenAI GPT-4 - 최고의 전반적 품질:

{
  models: {
    "*:*": "openai:gpt-4o",
  }
}

Anthropic Claude - 뉘앙스 있는 번역에 탁월:

{
  models: {
    "*:*": "anthropic:claude-3-5-sonnet",
  }
}

로컬/오프라인용

Ollama - 모델을 로컬에서 실행:

{
  models: {
    "*:*": "ollama:llama3.2",
  }
}

Ollama를 설치하고 모델을 가져오기:

curl -fsSL https://ollama.com/install.sh | sh
ollama pull llama3.2

혼합 전략 (권장)

언어별로 다른 모델을 사용하여 비용 최적화:

{
  models: {
    // Fast & cheap for Romance languages
    "en:es": "groq:llama-3.3-70b-versatile",
    "en:fr": "groq:llama-3.3-70b-versatile",
    "en:pt": "groq:llama-3.3-70b-versatile",

    // Higher quality for complex languages
    "en:ja": "openai:gpt-4o",
    "en:zh": "openai:gpt-4o",
    "en:ar": "openai:gpt-4o",

    // Good balance for European languages
    "en:de": "google:gemini-2.0-flash",
    "en:nl": "google:gemini-2.0-flash",

    // Fallback
    "*:*": "lingo.dev",
  }
}

사용자 정의 번역 프롬프트

LLM에 전송되는 번역 지침을 사용자 정의:

{
  models: "lingo.dev",
  prompt: `Translate from {SOURCE_LOCALE} to {TARGET_LOCALE}.

Guidelines:
- Use a professional tone
- Preserve all technical terms
- Do not translate brand names
- Maintain formatting (bold, italic, etc.)
- Use gender-neutral language where possible`
}

사용 가능한 플레이스홀더:

  • {SOURCE_LOCALE}: 소스 로케일 코드 (예: "en")
  • {TARGET_LOCALE}: 타겟 로케일 코드 (예: "es")

컴파일러는 번역되는 텍스트에 대한 컨텍스트(파일, 컴포넌트, 주변 요소)를 자동으로 추가합니다.

제공업체별 모델

OpenAI

"openai:gpt-4o"              // Best quality
"openai:gpt-4o-mini"         // Faster, cheaper
"openai:gpt-4-turbo"         // Previous generation

Anthropic

"anthropic:claude-3-5-sonnet"  // Best quality
"anthropic:claude-3-haiku"     // Faster, cheaper
"anthropic:claude-3-opus"      // Highest quality (expensive)

Google

"google:gemini-2.0-flash"      // Fast, efficient
"google:gemini-1.5-pro"        // Higher quality

Groq

"groq:llama-3.3-70b-versatile"  // Fast inference
"groq:mixtral-8x7b-32768"       // Good quality

Mistral

"mistral:mistral-large"         // Best quality
"mistral:mistral-small"         // Faster, cheaper

OpenRouter

OpenRouter는 100개 이상의 모델에 대한 액세스를 제공합니다. openrouter.ai/models에서 모델 ID를 사용하세요:

"openrouter:anthropic/claude-3.5-sonnet"
"openrouter:google/gemini-2.0-flash"
"openrouter:meta-llama/llama-3.3-70b"

Ollama

모든 Ollama 모델 사용:

"ollama:llama3.2"
"ollama:mistral"
"ollama:qwen2.5"

사용 가능한 모델 목록: ollama list

OpenAI 호환 제공자

OPENAI_BASE_URL를 제공자의 엔드포인트로 설정하여 OpenAI 호환 API를 사용할 수 있습니다. Nebius, Together AI, Anyscale, Fireworks와 같은 제공자와 함께 작동합니다.

참고 Nebius는 Lingo.dev 컴파일러에서 공식적으로 테스트된 유일한 OpenAI 호환 제공자입니다. 아래 나열된 다른 제공자들은 OpenAI 호환 API를 제공하지만 공식적으로 테스트되지 않았습니다.

설정

  1. 환경 변수를 설정하세요:
OPENAI_API_KEY=<your-provider-api-key>
OPENAI_BASE_URL=<provider-api-endpoint>
  1. 제공자의 모델 ID와 함께 openai: 접두사를 사용하세요:
{
  models: {
    "*:*": "openai:provider-model-id"
  }
}

지원되는 제공자

제공자기본 URL예시 모델
Nebiushttps://api.tokenfactory.nebius.com/v1google/gemma-2-9b-it-fast
Together AIhttps://api.together.xyz/v1meta-llama/Llama-3-70b-chat-hf
Anyscalehttps://api.endpoints.anyscale.com/v1meta-llama/Llama-2-70b-chat-hf
Fireworkshttps://api.fireworks.ai/inference/v1accounts/fireworks/models/llama-v3-70b-instruct
예시 모델은 설명을 위한 것입니다. 가용성과 모델 ID는 시간이 지남에 따라 변경될 수 있습니다. 항상 제공자의 API를 통해 현재 모델 목록을 확인하세요.

자주 묻는 질문

어떤 제공자를 사용해야 하나요? 간편함을 위해 Lingo.dev Engine으로 시작하세요. 완전한 제어와 비용 최적화를 위해서는 여러 제공자와 함께 로케일 쌍 매핑을 사용하세요.

프로덕션에서 API 키가 필요한가요? 아니요. 프로덕션에서는 buildMode: "cache-only"를 사용하세요—번역은 사전 생성됩니다. 빌드 모드를 참조하세요.

제공자를 혼합할 수 있나요? 예. 로케일 쌍 매핑을 사용하여 다른 언어 쌍을 다른 제공자로 라우팅하세요.

API 키가 유효하지 않으면 어떻게 되나요? 컴파일러가 명확한 오류 메시지와 함께 실패합니다. .env 파일을 확인하고 구성된 제공자에 대해 API 키가 올바른지 확인하세요.

커스텀 모델을 사용할 수 있나요? OpenRouter는 100개 이상의 모델을 지원합니다. Ollama는 로컬에 설치된 모든 모델을 지원합니다. 다른 제공업체는 해당 모델 카탈로그로 제한됩니다.

API 호출 없이 테스트하려면 어떻게 하나요? 개발 환경에서 pseudotranslator를 활성화하세요:

{
  dev: { usePseudotranslator: true }
}

제공업체 간 비용 차이는 어떻게 되나요? 상당히 다릅니다. Groq는 넉넉한 무료 티어를 제공합니다. OpenAI GPT-4는 프리미엄 가격입니다. Google Gemini는 경쟁력 있는 가격입니다. 각 제공업체의 가격 페이지를 확인하세요.

다음 단계