快速入门
使用 Lingo.dev CLI 快速启动并运行
简介
Lingo.dev CLI 是一款免费、开源的命令行工具,可通过 AI 翻译应用和内容。本快速入门指南将帮助您在几分钟内完成 Lingo.dev CLI 的安装与配置。
步骤 1. 初始化项目
-
进入项目目录:
cd <your-project-directory> -
运行以下命令:
npx lingo.dev@latest initWindows 用户: 如果
npx lingo.dev在您的环境中无法运行:- 安装该包:
npm install lingo.dev@latest - 请改用
npx lingo(例如,npx lingo init)
- 安装该包:
-
按照提示操作。
CLI 会创建一个 i18n.json 文件,用于配置翻译流程。
步骤 2. 配置 bucket
在 i18n.json 文件中,至少配置一个 bucket:
{
"$schema": "https://lingo.dev/schema/i18n.json",
"version": "1.10",
"locale": {
"source": "en",
"targets": ["es"]
},
"buckets": {
"json": {
"include": ["locales/[locale].json"]
}
}
}
bucket 决定了 Lingo.dev CLI 用于提取可翻译内容的解析器。例如,"json" bucket 专为翻译 JSON 文件设计。
bucket 的配置必须定义一个或多个 include 模式,用于指定需要翻译的文件。(你也可以选择性地指定 exclude 模式以获得更多控制。)
请注意:
- 某些 bucket 的
include模式必须包含特殊的[locale]占位符,但在其他情况下则绝对不能包含该占位符。 - 部分 bucket 支持额外功能,例如 key locking。
如需了解每个 bucket 的具体要求,请参阅各自的文档,例如 JSON 或 CSV。
步骤 3. 配置 LLM provider
Lingo.dev CLI 从文件中提取内容后,会将其发送到大型语言模型(LLM)进行翻译,然后将翻译结果写回文件系统。
我们推荐使用 Lingo.dev Engine —— 我们自有的托管平台 —— 作为 LLM provider,但这并非强制要求。CLI 也支持多种第三方 provider,例如 Anthropic 和 OpenAI。
Lingo.dev 引擎
- 登录 Lingo.dev 引擎 [/auth]。
- 进入 项目 页面。
- 点击 API key > 复制。
- 设置
LINGODOTDEV_API_KEY环境变量,并将 API key 作为其值。
第三方服务商
-
从支持的服务商获取 API key。
-
设置一个环境变量,并将 API key 作为其值:
- 如果你使用 Anthropic,请设置
ANTHROPIC_API_KEY - 如果你使用 Google,请设置
GOOGLE_API_KEY - 如果你使用 Mistral,请设置
MISTRAL_API_KEY - 如果你使用 OpenAI,请设置
OPENAI_API_KEY - 如果你使用 OpenRouter,请设置
OPENROUTER_API_KEY - 如果你使用 Ollama,无需 API key(本地运行)
- 如果你使用 Anthropic,请设置
-
在
i18n.json文件中,添加一个provider对象,并包含以下属性:id- LLM 服务商的 ID(例如openai)。model- 该 LLM 服务商下具体模型的 ID(例如gpt-4o-mini)。prompt- 所有 LLM 请求发送的 prompt。请使用{source}和{target}作为源语言和目标语言的占位符,这些值会在运行时自动替换。
例如:
{ "$schema": "https://lingo.dev/schema/i18n.json", "version": "1.10", "locale": { "source": "en", "targets": ["es"] }, "buckets": { "json": { "include": ["locales/[locale].json"] } }, "provider": { "id": "openai", "model": "gpt-4o-mini", "prompt": "Translate the provided text from {source} to {target}." } }
如需了解更多可用选项,请参阅 i18n.json。
Ollama
-
从 ollama.com 安装 Ollama。
-
拉取一个模型(例如
ollama pull llama3.2或ollama pull mistral)。 -
确保 Ollama 服务在本地运行。
-
在
i18n.json中配置 provider:{ "$schema": "https://lingo.dev/schema/i18n.json", "version": "1.10", "locale": { "source": "en", "targets": ["es"] }, "buckets": { "json": { "include": ["locales/[locale].json"] } }, "provider": { "id": "ollama", "model": "llama3.2", "baseUrl": "http://localhost:11434", "prompt": "Translate the provided text from {source} to {target}." } }
无需 API 密钥,因为 Ollama 在本地运行于您的计算机上。
步骤 4. 生成翻译内容
在项目目录下,运行以下命令:
npx lingo.dev@latest run
Windows 用户: 如果
npx lingo.dev在您的环境中无法运行:
- 安装该包:
npm install lingo.dev@latest- 请改用
npx lingo(例如,npx lingo run)
CLI 将会:
- 根据
i18n.json文件确定需要翻译的文件。 - 从文件中提取可翻译内容。
- 将内容发送到已配置的 LLM 提供商进行翻译。
- 将翻译后的内容写回文件系统。
- 创建
i18n.lock文件以跟踪翻译内容。
如需了解完整生命周期,请参阅 工作原理。
后续步骤
请参阅 CLI 命令 以获取 CLI 可用的完整命令、选项和标志列表。