クイックスタート
Lingo.dev CLIを使い始める
はじめに
Lingo.dev CLIは、AIを使用してアプリやコンテンツを翻訳するための無料のオープンソースCLIです。このクイックスタートガイドでは、Lingo.dev CLIを数分で使い始める方法を説明します。
ステップ1. プロジェクトの初期化
-
プロジェクトディレクトリに移動します:
cd <your-project-directory> -
以下のコマンドを実行します:
npx lingo.dev@latest initWindowsユーザーの方へ:
npx lingo.devがお使いの環境で動作しない場合:- パッケージをインストールしてください:
npm install lingo.dev@latest - 代わりに
npx lingoを使用してください(例:npx lingo init)
- パッケージをインストールしてください:
-
プロンプトに従って操作してください。
CLIは翻訳パイプラインを設定するためのi18n.jsonファイルを作成します。
ステップ2. バケットの設定
i18n.jsonファイルで、少なくとも1つの_バケット_を設定してください:
{
"$schema": "https://lingo.dev/schema/i18n.json",
"version": "1.10",
"locale": {
"source": "en",
"targets": ["es"]
},
"buckets": {
"json": {
"include": ["locales/[locale].json"]
}
}
}
バケットは、Lingo.dev CLIが翻訳可能なコンテンツを抽出する際に使用するパーサーを決定します。例えば、"json"バケットは、JSONファイルの翻訳専用に設計されています。
バケットの設定には、翻訳対象のファイルを指定する1つ以上のincludeパターンを定義する必要があります(追加の制御のために、オプションでexcludeパターンを指定することもできます)。
以下の点に注意してください:
- 特定のバケットの
includeパターンには、特別な[locale]プレースホルダーを含める必要がありますが、他のケースではこのプレースホルダーは厳密に禁止されています。 - 一部のバケットは、キーロックなどの追加機能をサポートしています。
各バケットの正確な要件について詳しく知るには、JSONやCSVなどの各バケットのドキュメントを参照してください。
ステップ3. LLMプロバイダーの設定
Lingo.dev CLIがファイルからコンテンツを抽出した後、翻訳のために大規模言語モデル(LLM)に送信し、翻訳されたコンテンツをファイルシステムに書き戻します。
LLMプロバイダーとして、当社独自のホスト型プラットフォームであるLingo.dev Engineの使用を推奨しますが、これは必須ではありません。CLIは、AnthropicやOpenAIなど、多数のサードパーティプロバイダーをサポートしています。
Lingo.dev Engine
- Lingo.dev Engineにログインします。
- Projectsページに移動します。
- API key > Copyをクリックします。
- APIキーを値として
LINGODOTDEV_API_KEY環境変数を設定します。
サードパーティプロバイダー
-
サポートされているプロバイダーのいずれかからAPIキーを取得します。
-
APIキーを値として環境変数を設定します:
- Anthropicを使用する場合は、
ANTHROPIC_API_KEYを設定します - Googleを使用する場合は、
GOOGLE_API_KEYを設定します - Mistralを使用する場合は、
MISTRAL_API_KEYを設定します - OpenAIを使用する場合は、
OPENAI_API_KEYを設定します - OpenRouterを使用する場合は、
OPENROUTER_API_KEYを設定します - Ollamaを使用する場合は、APIキーは不要です(ローカルで実行されます)
- Anthropicを使用する場合は、
-
i18n.jsonファイルに、以下のプロパティを持つproviderオブジェクトを追加します:id- LLMプロバイダーのID(例:openai)model- そのLLMプロバイダーの特定のモデルのID(例:gpt-4o-mini)prompt- すべてのLLMリクエストと共に送信されるプロンプト。ソースロケールとターゲットロケールのプレースホルダー値として{source}と{target}を使用します。これらは実行時に置き換えられます。
例:
{ "$schema": "https://lingo.dev/schema/i18n.json", "version": "1.10", "locale": { "source": "en", "targets": ["es"] }, "buckets": { "json": { "include": ["locales/[locale].json"] } }, "provider": { "id": "openai", "model": "gpt-4o-mini", "prompt": "Translate the provided text from {source} to {target}." } }
利用可能なオプションの詳細については、i18n.jsonを参照してください。
Ollama
-
ollama.comからOllamaをインストールします。
-
モデルをプルします(例:
ollama pull llama3.2またはollama pull mistral)。 -
Ollamaサービスがローカルで実行されていることを確認します。
-
i18n.jsonでプロバイダーを設定します:{ "$schema": "https://lingo.dev/schema/i18n.json", "version": "1.10", "locale": { "source": "en", "targets": ["es"] }, "buckets": { "json": { "include": ["locales/[locale].json"] } }, "provider": { "id": "ollama", "model": "llama3.2", "baseUrl": "http://localhost:11434", "prompt": "Translate the provided text from {source} to {target}." } }
Ollamaはマシン上でローカルに実行されるため、APIキーは不要です。
ステップ4. 翻訳を生成する
プロジェクトディレクトリで、次のコマンドを実行します。
npx lingo.dev@latest run
Windowsユーザーの方へ:
npx lingo.devがお使いの環境で動作しない場合:
- パッケージをインストールしてください:
npm install lingo.dev@latest- 代わりに
npx lingoを使用してください(例:npx lingo run)
CLIは次の処理を実行します。
i18n.jsonファイルに基づいて、翻訳が必要なファイルを判定します。- ファイルから翻訳可能なコンテンツを抽出します。
- 翻訳のために、設定されたLLMプロバイダーにコンテンツを送信します。
- 翻訳されたコンテンツをファイルシステムに書き戻します。
- 翻訳されたコンテンツを追跡するための
i18n.lockファイルを作成します。
完全なライフサイクルの詳細については、仕組みを参照してください。
次のステップ
CLI経由で利用可能なコマンド、オプション、フラグの完全なリストについては、CLIコマンドを参照してください。