クイックスタート

Lingo.dev CLIを使い始める

はじめに

Lingo.dev CLIは、AIを使用してアプリやコンテンツを翻訳するための無料のオープンソースCLIです。このクイックスタートガイドでは、Lingo.dev CLIを数分で使い始める方法を説明します。

ステップ1. プロジェクトの初期化

  1. プロジェクトディレクトリに移動します:

    cd <your-project-directory>
    
  2. 以下のコマンドを実行します:

    npx lingo.dev@latest init
    

    Windowsユーザーの方へ: npx lingo.devがお使いの環境で動作しない場合:

    1. パッケージをインストールしてください: npm install lingo.dev@latest
    2. 代わりにnpx lingoを使用してください(例: npx lingo init)
  3. プロンプトに従って操作してください。

CLIは翻訳パイプラインを設定するためのi18n.jsonファイルを作成します。

ステップ2. バケットの設定

i18n.jsonファイルで、少なくとも1つの_バケット_を設定してください:

{
  "$schema": "https://lingo.dev/schema/i18n.json",
  "version": "1.10",
  "locale": {
    "source": "en",
    "targets": ["es"]
  },
  "buckets": {
    "json": {
      "include": ["locales/[locale].json"]
    }
  }
}

バケットは、Lingo.dev CLIが翻訳可能なコンテンツを抽出する際に使用するパーサーを決定します。例えば、"json"バケットは、JSONファイルの翻訳専用に設計されています。

バケットの設定には、翻訳対象のファイルを指定する1つ以上のincludeパターンを定義する必要があります(追加の制御のために、オプションでexcludeパターンを指定することもできます)。

以下の点に注意してください:

  • 特定のバケットのincludeパターンには、特別な[locale]プレースホルダーを含める必要がありますが、他のケースではこのプレースホルダーは厳密に禁止されています。
  • 一部のバケットは、キーロックなどの追加機能をサポートしています。

各バケットの正確な要件について詳しく知るには、JSONCSVなどの各バケットのドキュメントを参照してください。

ステップ3. LLMプロバイダーの設定

Lingo.dev CLIがファイルからコンテンツを抽出した後、翻訳のために大規模言語モデル(LLM)に送信し、翻訳されたコンテンツをファイルシステムに書き戻します。

LLMプロバイダーとして、当社独自のホスト型プラットフォームであるLingo.dev Engineの使用を推奨しますが、これは必須ではありません。CLIは、AnthropicやOpenAIなど、多数のサードパーティプロバイダーをサポートしています。

Lingo.dev Engine

  1. Lingo.dev Engineにログインします。
  2. Projectsページに移動します。
  3. API key > Copyをクリックします。
  4. APIキーを値としてLINGODOTDEV_API_KEY環境変数を設定します。

サードパーティプロバイダー

  1. サポートされているプロバイダーのいずれかからAPIキーを取得します。

  2. APIキーを値として環境変数を設定します:

    • Anthropicを使用する場合は、ANTHROPIC_API_KEYを設定します
    • Googleを使用する場合は、GOOGLE_API_KEYを設定します
    • Mistralを使用する場合は、MISTRAL_API_KEYを設定します
    • OpenAIを使用する場合は、OPENAI_API_KEYを設定します
    • OpenRouterを使用する場合は、OPENROUTER_API_KEYを設定します
    • Ollamaを使用する場合は、APIキーは不要です(ローカルで実行されます)
  3. i18n.jsonファイルに、以下のプロパティを持つproviderオブジェクトを追加します:

    • id - LLMプロバイダーのID(例:openai
    • model - そのLLMプロバイダーの特定のモデルのID(例:gpt-4o-mini
    • prompt - すべてのLLMリクエストと共に送信されるプロンプト。ソースロケールとターゲットロケールのプレースホルダー値として{source}{target}を使用します。これらは実行時に置き換えられます。

    例:

    {
      "$schema": "https://lingo.dev/schema/i18n.json",
      "version": "1.10",
      "locale": {
        "source": "en",
        "targets": ["es"]
      },
      "buckets": {
        "json": {
          "include": ["locales/[locale].json"]
        }
      },
      "provider": {
        "id": "openai",
        "model": "gpt-4o-mini",
        "prompt": "Translate the provided text from {source} to {target}."
      }
    }
    

利用可能なオプションの詳細については、i18n.jsonを参照してください。

Ollama

  1. ollama.comからOllamaをインストールします。

  2. モデルをプルします(例:ollama pull llama3.2またはollama pull mistral)。

  3. Ollamaサービスがローカルで実行されていることを確認します。

  4. i18n.jsonでプロバイダーを設定します:

    {
      "$schema": "https://lingo.dev/schema/i18n.json",
      "version": "1.10",
      "locale": {
        "source": "en",
        "targets": ["es"]
      },
      "buckets": {
        "json": {
          "include": ["locales/[locale].json"]
        }
      },
      "provider": {
        "id": "ollama",
        "model": "llama3.2",
        "baseUrl": "http://localhost:11434",
        "prompt": "Translate the provided text from {source} to {target}."
      }
    }
    

Ollamaはマシン上でローカルに実行されるため、APIキーは不要です。

ステップ4. 翻訳を生成する

プロジェクトディレクトリで、次のコマンドを実行します。

npx lingo.dev@latest run

Windowsユーザーの方へ: npx lingo.devがお使いの環境で動作しない場合:

  1. パッケージをインストールしてください: npm install lingo.dev@latest
  2. 代わりにnpx lingoを使用してください(例: npx lingo run)

CLIは次の処理を実行します。

  1. i18n.jsonファイルに基づいて、翻訳が必要なファイルを判定します。
  2. ファイルから翻訳可能なコンテンツを抽出します。
  3. 翻訳のために、設定されたLLMプロバイダーにコンテンツを送信します。
  4. 翻訳されたコンテンツをファイルシステムに書き戻します。
  5. 翻訳されたコンテンツを追跡するためのi18n.lockファイルを作成します。

完全なライフサイクルの詳細については、仕組みを参照してください。

次のステップ

CLI経由で利用可能なコマンド、オプション、フラグの完全なリストについては、CLIコマンドを参照してください。