快速入门

使用 Lingo.dev CLI 快速启动并运行

简介

Lingo.dev CLI 是一款免费、开源的命令行工具,可通过 AI 翻译应用和内容。本快速入门指南将帮助您在几分钟内完成 Lingo.dev CLI 的安装与配置。

步骤 1. 初始化项目

  1. 进入项目目录:

    cd <your-project-directory>
    
  2. 运行以下命令:

    npx lingo.dev@latest init
    

    Windows 用户: 如果 npx lingo.dev 在您的环境中无法运行:

    1. 安装该包:npm install lingo.dev@latest
    2. 请改用 npx lingo(例如,npx lingo init
  3. 按照提示操作。

CLI 会创建一个 i18n.json 文件,用于配置翻译流程。

步骤 2. 配置 bucket

i18n.json 文件中,至少配置一个 bucket

{
  "$schema": "https://lingo.dev/schema/i18n.json",
  "version": "1.10",
  "locale": {
    "source": "en",
    "targets": ["es"]
  },
  "buckets": {
    "json": {
      "include": ["locales/[locale].json"]
    }
  }
}

bucket 决定了 Lingo.dev CLI 用于提取可翻译内容的解析器。例如,"json" bucket 专为翻译 JSON 文件设计。

bucket 的配置必须定义一个或多个 include 模式,用于指定需要翻译的文件。(你也可以选择性地指定 exclude 模式以获得更多控制。)

请注意:

  • 某些 bucket 的 include 模式必须包含特殊的 [locale] 占位符,但在其他情况下则绝对不能包含该占位符。
  • 部分 bucket 支持额外功能,例如 key locking

如需了解每个 bucket 的具体要求,请参阅各自的文档,例如 JSONCSV

步骤 3. 配置 LLM provider

Lingo.dev CLI 从文件中提取内容后,会将其发送到大型语言模型(LLM)进行翻译,然后将翻译结果写回文件系统。

我们推荐使用 Lingo.dev Engine —— 我们自有的托管平台 —— 作为 LLM provider,但这并非强制要求。CLI 也支持多种第三方 provider,例如 Anthropic 和 OpenAI。

Lingo.dev 引擎

  1. 登录 Lingo.dev 引擎 [/auth]。
  2. 进入 项目 页面。
  3. 点击 API key > 复制
  4. 设置 LINGODOTDEV_API_KEY 环境变量,并将 API key 作为其值。

第三方服务商

  1. 从支持的服务商获取 API key。

  2. 设置一个环境变量,并将 API key 作为其值:

    • 如果你使用 Anthropic,请设置 ANTHROPIC_API_KEY
    • 如果你使用 Google,请设置 GOOGLE_API_KEY
    • 如果你使用 Mistral,请设置 MISTRAL_API_KEY
    • 如果你使用 OpenAI,请设置 OPENAI_API_KEY
    • 如果你使用 OpenRouter,请设置 OPENROUTER_API_KEY
    • 如果你使用 Ollama,无需 API key(本地运行)
  3. i18n.json 文件中,添加一个 provider 对象,并包含以下属性:

    • id - LLM 服务商的 ID(例如 openai)。
    • model - 该 LLM 服务商下具体模型的 ID(例如 gpt-4o-mini)。
    • prompt - 所有 LLM 请求发送的 prompt。请使用 {source}{target} 作为源语言和目标语言的占位符,这些值会在运行时自动替换。

    例如:

    {
      "$schema": "https://lingo.dev/schema/i18n.json",
      "version": "1.10",
      "locale": {
        "source": "en",
        "targets": ["es"]
      },
      "buckets": {
        "json": {
          "include": ["locales/[locale].json"]
        }
      },
      "provider": {
        "id": "openai",
        "model": "gpt-4o-mini",
        "prompt": "Translate the provided text from {source} to {target}."
      }
    }
    

如需了解更多可用选项,请参阅 i18n.json

Ollama

  1. ollama.com 安装 Ollama。

  2. 拉取一个模型(例如 ollama pull llama3.2ollama pull mistral)。

  3. 确保 Ollama 服务在本地运行。

  4. i18n.json 中配置 provider:

    {
      "$schema": "https://lingo.dev/schema/i18n.json",
      "version": "1.10",
      "locale": {
        "source": "en",
        "targets": ["es"]
      },
      "buckets": {
        "json": {
          "include": ["locales/[locale].json"]
        }
      },
      "provider": {
        "id": "ollama",
        "model": "llama3.2",
        "baseUrl": "http://localhost:11434",
        "prompt": "Translate the provided text from {source} to {target}."
      }
    }
    

无需 API 密钥,因为 Ollama 在本地运行于您的计算机上。

步骤 4. 生成翻译内容

在项目目录下,运行以下命令:

npx lingo.dev@latest run

Windows 用户: 如果 npx lingo.dev 在您的环境中无法运行:

  1. 安装该包:npm install lingo.dev@latest
  2. 请改用 npx lingo(例如,npx lingo run

CLI 将会:

  1. 根据 i18n.json 文件确定需要翻译的文件。
  2. 从文件中提取可翻译内容。
  3. 将内容发送到已配置的 LLM 提供商进行翻译。
  4. 将翻译后的内容写回文件系统。
  5. 创建 i18n.lock 文件以跟踪翻译内容。

如需了解完整生命周期,请参阅 工作原理

后续步骤

请参阅 CLI 命令 以获取 CLI 可用的完整命令、选项和标志列表。