빠른 시작
Lingo.dev CLI로 시작하기
소개
Lingo.dev CLI는 AI로 앱과 콘텐츠를 번역하는 무료 오픈소스 CLI입니다. 이 빠른 시작 가이드는 Lingo.dev CLI를 몇 분 안에 설정하고 실행하는 방법을 설명합니다.
1단계. 프로젝트 초기화
-
프로젝트 디렉토리로 이동합니다:
cd <your-project-directory> -
다음 명령을 실행합니다:
npx lingo.dev@latest initWindows 사용자: 환경에서
npx lingo.dev가 실행되지 않는 경우:- 패키지를 설치하세요:
npm install lingo.dev@latest - 대신
npx lingo를 사용하세요 (예:npx lingo init)
- 패키지를 설치하세요:
-
프롬프트를 따르세요.
CLI는 번역 파이프라인을 구성하기 위한 i18n.json 파일을 생성합니다.
2단계. 버킷 구성
i18n.json 파일에서 최소 하나의 _버킷_을 구성하세요:
{
"$schema": "https://lingo.dev/schema/i18n.json",
"version": "1.10",
"locale": {
"source": "en",
"targets": ["es"]
},
"buckets": {
"json": {
"include": ["locales/[locale].json"]
}
}
}
버킷은 Lingo.dev CLI가 번역 가능한 콘텐츠를 추출하는 데 사용하는 파서를 결정합니다. 예를 들어, "json" 버킷은 JSON 파일 번역을 위해 특별히 설계되었습니다.
버킷의 구성은 번역할 파일을 지정하는 하나 이상의 include 패턴을 정의해야 합니다. (추가 제어를 위해 선택적으로 exclude 패턴을 지정할 수 있습니다.)
다음 사항에 유의하세요:
- 특정 버킷의
include패턴은 특수[locale]플레이스홀더를 포함해야 하지만, 다른 경우에는 이 플레이스홀더가 엄격히 허용되지 않습니다. - 일부 버킷은 키 잠금과 같은 추가 기능을 지원합니다.
각 버킷의 정확한 요구 사항에 대해 자세히 알아보려면 JSON 또는 CSV와 같은 각 버킷의 문서를 참조하세요.
3단계. LLM 프로바이더 구성
Lingo.dev CLI가 파일에서 콘텐츠를 추출한 후, 번역된 콘텐츠를 파일 시스템에 다시 작성하기 전에 번역을 위해 대규모 언어 모델(LLM)로 전송합니다.
LLM 프로바이더로 Lingo.dev Engine(자체 호스팅 플랫폼)을 사용하는 것을 권장하지만, 이것이 엄격히 필수는 아닙니다. CLI는 Anthropic 및 OpenAI와 같은 여러 타사 프로바이더를 지원합니다.
Lingo.dev 엔진
- Lingo.dev 엔진에 로그인하세요.
- 프로젝트 페이지로 이동하세요.
- API 키 > 복사를 클릭하세요.
- API 키를 값으로 하는
LINGODOTDEV_API_KEY환경 변수를 설정하세요.
서드파티 제공업체
-
지원되는 제공업체 중 하나에서 API 키를 받으세요.
-
API 키를 값으로 하는 환경 변수를 설정하세요:
- Anthropic을 사용하는 경우
ANTHROPIC_API_KEY를 설정하세요 - Google을 사용하는 경우
GOOGLE_API_KEY를 설정하세요 - Mistral을 사용하는 경우
MISTRAL_API_KEY를 설정하세요 - OpenAI를 사용하는 경우
OPENAI_API_KEY를 설정하세요 - OpenRouter를 사용하는 경우
OPENROUTER_API_KEY를 설정하세요 - Ollama를 사용하는 경우 API 키가 필요하지 않습니다(로컬에서 실행됨)
- Anthropic을 사용하는 경우
-
i18n.json파일에 다음 속성을 가진provider객체를 추가하세요:id- LLM 제공업체의 ID(예:openai)model- 해당 LLM 제공업체의 특정 모델 ID(예:gpt-4o-mini)prompt- 모든 LLM 요청과 함께 전송될 프롬프트. 소스 및 타겟 로케일의 플레이스홀더 값으로{source}와{target}를 사용하세요. 이들은 런타임에 대체됩니다.
예시:
{ "$schema": "https://lingo.dev/schema/i18n.json", "version": "1.10", "locale": { "source": "en", "targets": ["es"] }, "buckets": { "json": { "include": ["locales/[locale].json"] } }, "provider": { "id": "openai", "model": "gpt-4o-mini", "prompt": "Translate the provided text from {source} to {target}." } }
사용 가능한 옵션에 대해 자세히 알아보려면 i18n.json을 참조하세요.
Ollama
-
ollama.com에서 Ollama를 설치하세요.
-
모델을 다운로드하세요(예:
ollama pull llama3.2또는ollama pull mistral). -
Ollama 서비스가 로컬에서 실행 중인지 확인하세요.
-
i18n.json에서 제공업체를 구성하세요:{ "$schema": "https://lingo.dev/schema/i18n.json", "version": "1.10", "locale": { "source": "en", "targets": ["es"] }, "buckets": { "json": { "include": ["locales/[locale].json"] } }, "provider": { "id": "ollama", "model": "llama3.2", "baseUrl": "http://localhost:11434", "prompt": "Translate the provided text from {source} to {target}." } }
Ollama는 로컬 머신에서 실행되므로 API 키가 필요하지 않습니다.
4단계. 번역 생성
프로젝트 디렉토리에서 다음 명령을 실행합니다:
npx lingo.dev@latest run
Windows 사용자: 환경에서
npx lingo.dev가 실행되지 않는 경우:
- 패키지를 설치하세요:
npm install lingo.dev@latest- 대신
npx lingo를 사용하세요 (예:npx lingo run)
CLI는 다음을 수행합니다:
i18n.json파일을 기반으로 번역이 필요한 파일을 결정합니다.- 파일에서 번역 가능한 콘텐츠를 추출합니다.
- 번역을 위해 구성된 LLM 제공자에게 콘텐츠를 전송합니다.
- 번역된 콘텐츠를 파일 시스템에 다시 작성합니다.
- 번역된 콘텐츠를 추적하기 위한
i18n.lock파일을 생성합니다.
전체 라이프사이클에 대해 자세히 알아보려면 작동 방식을 참조하세요.
다음 단계
CLI를 통해 사용 가능한 전체 명령, 옵션 및 플래그 목록은 CLI 명령을 참조하세요.