Быстрый старт
Начните работу с Lingo.dev CLI
Введение
Lingo.dev CLI — это бесплатный open-source инструмент командной строки для перевода приложений и контента с помощью ИИ. В этом кратком руководстве показано, как начать работу с Lingo.dev CLI всего за несколько минут.
Шаг 1. Инициализация проекта
-
Перейдите в директорию проекта:
cd <your-project-directory> -
Выполните следующую команду:
npx lingo.dev@latest initПользователи Windows: Если
npx lingo.devне запускается в вашей среде:- Установите пакет:
npm install lingo.dev@latest - Используйте
npx lingoвместо этого (например,npx lingo init)
- Установите пакет:
-
Следуйте подсказкам.
CLI создаст файл i18n.json для настройки пайплайна перевода.
Шаг 2. Настройте bucket
В файле i18n.json настройте хотя бы один bucket:
{
"$schema": "https://lingo.dev/schema/i18n.json",
"version": "1.10",
"locale": {
"source": "en",
"targets": ["es"]
},
"buckets": {
"json": {
"include": ["locales/[locale].json"]
}
}
}
Buckets определяют парсер, который использует Lingo.dev CLI для извлечения переводимого контента. Например, bucket "json" специально предназначен для перевода JSON-файлов.
Конфигурация bucket должна содержать один или несколько паттернов include, которые определяют, какие файлы нужно переводить. (Можно также указать паттерны exclude для дополнительного контроля.)
Обратите внимание:
- В некоторых buckets паттерны
includeдолжны содержать специальный плейсхолдер[locale], а в других случаях этот плейсхолдер строго запрещён. - Некоторые buckets поддерживают дополнительные функции, например, блокировку ключей.
Чтобы узнать больше о требованиях к каждому bucket, смотрите документацию по каждому bucket, например JSON или CSV.
Шаг 3. Настройте LLM-провайдера
После того как Lingo.dev CLI извлечёт контент из файла, он отправляет его в большую языковую модель (LLM) для перевода, а затем записывает переведённый контент обратно в файловую систему.
Мы рекомендуем использовать Lingo.dev Engine — нашу собственную облачную платформу — в качестве LLM-провайдера, но это не обязательно. CLI поддерживает и сторонних провайдеров, таких как Anthropic и OpenAI.
Движок Lingo.dev
- Войдите в Lingo.dev Engine.
- Перейдите на страницу Проекты.
- Нажмите API key > Копировать.
- Установите переменную окружения
LINGODOTDEV_API_KEYсо значением вашего API-ключа.
Сторонний провайдер
-
Получите API-ключ у одного из поддерживаемых провайдеров.
-
Установите переменную окружения со значением вашего API-ключа:
- Если используете Anthropic, установите
ANTHROPIC_API_KEY - Если используете Google, установите
GOOGLE_API_KEY - Если используете Mistral, установите
MISTRAL_API_KEY - Если используете OpenAI, установите
OPENAI_API_KEY - Если используете OpenRouter, установите
OPENROUTER_API_KEY - Если используете Ollama, API-ключ не требуется (работает локально)
- Если используете Anthropic, установите
-
В файле
i18n.jsonдобавьте объектproviderсо следующими свойствами:id— ID LLM-провайдера (например,openai).model— ID конкретной модели этого LLM-провайдера (например,gpt-4o-mini).prompt— промпт, который будет отправляться со всеми запросами к LLM. Используйте{source}и{target}как плейсхолдеры для исходной и целевой локалей. Они будут подставлены во время выполнения.
Например:
{ "$schema": "https://lingo.dev/schema/i18n.json", "version": "1.10", "locale": { "source": "en", "targets": ["es"] }, "buckets": { "json": { "include": ["locales/[locale].json"] } }, "provider": { "id": "openai", "model": "gpt-4o-mini", "prompt": "Translate the provided text from {source} to {target}." } }
Чтобы узнать больше о доступных опциях, смотрите i18n.json.
Ollama
-
Установите Ollama с ollama.com.
-
Скачайте модель (например,
ollama pull llama3.2илиollama pull mistral). -
Убедитесь, что сервис Ollama запущен локально.
-
Настройте провайдера в
i18n.json:{ "$schema": "https://lingo.dev/schema/i18n.json", "version": "1.10", "locale": { "source": "en", "targets": ["es"] }, "buckets": { "json": { "include": ["locales/[locale].json"] } }, "provider": { "id": "ollama", "model": "llama3.2", "baseUrl": "http://localhost:11434", "prompt": "Translate the provided text from {source} to {target}." } }
API-ключ не требуется, так как Ollama работает локально на вашем компьютере.
Шаг 4. Генерация переводов
В каталоге проекта выполните следующую команду:
npx lingo.dev@latest run
Пользователи Windows: Если
npx lingo.devне запускается в вашей среде:
- Установите пакет:
npm install lingo.dev@latest- Используйте
npx lingoвместо этого (например,npx lingo run)
CLI выполнит следующее:
- Определит, какие файлы нужно перевести, на основе файла
i18n.json. - Извлечёт переводимый контент из файлов.
- Отправит контент выбранному LLM-провайдеру для перевода.
- Запишет переведённый контент обратно в файловую систему.
- Создаст файл
i18n.lockдля отслеживания переведённого контента.
Чтобы узнать больше о полном жизненном цикле, смотрите Как это работает.
Дальнейшие шаги
Смотрите Команды CLI для полного списка команд, опций и флагов, доступных через CLI.