Быстрый старт

Начните работу с Lingo.dev CLI

Введение

Lingo.dev CLI — это бесплатный open-source инструмент командной строки для перевода приложений и контента с помощью ИИ. В этом кратком руководстве показано, как начать работу с Lingo.dev CLI всего за несколько минут.

Шаг 1. Инициализация проекта

  1. Перейдите в директорию проекта:

    cd <your-project-directory>
    
  2. Выполните следующую команду:

    npx lingo.dev@latest init
    

    Пользователи Windows: Если npx lingo.dev не запускается в вашей среде:

    1. Установите пакет: npm install lingo.dev@latest
    2. Используйте npx lingo вместо этого (например, npx lingo init)
  3. Следуйте подсказкам.

CLI создаст файл i18n.json для настройки пайплайна перевода.

Шаг 2. Настройте bucket

В файле i18n.json настройте хотя бы один bucket:

{
  "$schema": "https://lingo.dev/schema/i18n.json",
  "version": "1.10",
  "locale": {
    "source": "en",
    "targets": ["es"]
  },
  "buckets": {
    "json": {
      "include": ["locales/[locale].json"]
    }
  }
}

Buckets определяют парсер, который использует Lingo.dev CLI для извлечения переводимого контента. Например, bucket "json" специально предназначен для перевода JSON-файлов.

Конфигурация bucket должна содержать один или несколько паттернов include, которые определяют, какие файлы нужно переводить. (Можно также указать паттерны exclude для дополнительного контроля.)

Обратите внимание:

  • В некоторых buckets паттерны include должны содержать специальный плейсхолдер [locale], а в других случаях этот плейсхолдер строго запрещён.
  • Некоторые buckets поддерживают дополнительные функции, например, блокировку ключей.

Чтобы узнать больше о требованиях к каждому bucket, смотрите документацию по каждому bucket, например JSON или CSV.

Шаг 3. Настройте LLM-провайдера

После того как Lingo.dev CLI извлечёт контент из файла, он отправляет его в большую языковую модель (LLM) для перевода, а затем записывает переведённый контент обратно в файловую систему.

Мы рекомендуем использовать Lingo.dev Engine — нашу собственную облачную платформу — в качестве LLM-провайдера, но это не обязательно. CLI поддерживает и сторонних провайдеров, таких как Anthropic и OpenAI.

Движок Lingo.dev

  1. Войдите в Lingo.dev Engine.
  2. Перейдите на страницу Проекты.
  3. Нажмите API key > Копировать.
  4. Установите переменную окружения LINGODOTDEV_API_KEY со значением вашего API-ключа.

Сторонний провайдер

  1. Получите API-ключ у одного из поддерживаемых провайдеров.

  2. Установите переменную окружения со значением вашего API-ключа:

    • Если используете Anthropic, установите ANTHROPIC_API_KEY
    • Если используете Google, установите GOOGLE_API_KEY
    • Если используете Mistral, установите MISTRAL_API_KEY
    • Если используете OpenAI, установите OPENAI_API_KEY
    • Если используете OpenRouter, установите OPENROUTER_API_KEY
    • Если используете Ollama, API-ключ не требуется (работает локально)
  3. В файле i18n.json добавьте объект provider со следующими свойствами:

    • id — ID LLM-провайдера (например, openai).
    • model — ID конкретной модели этого LLM-провайдера (например, gpt-4o-mini).
    • prompt — промпт, который будет отправляться со всеми запросами к LLM. Используйте {source} и {target} как плейсхолдеры для исходной и целевой локалей. Они будут подставлены во время выполнения.

    Например:

    {
      "$schema": "https://lingo.dev/schema/i18n.json",
      "version": "1.10",
      "locale": {
        "source": "en",
        "targets": ["es"]
      },
      "buckets": {
        "json": {
          "include": ["locales/[locale].json"]
        }
      },
      "provider": {
        "id": "openai",
        "model": "gpt-4o-mini",
        "prompt": "Translate the provided text from {source} to {target}."
      }
    }
    

Чтобы узнать больше о доступных опциях, смотрите i18n.json.

Ollama

  1. Установите Ollama с ollama.com.

  2. Скачайте модель (например, ollama pull llama3.2 или ollama pull mistral).

  3. Убедитесь, что сервис Ollama запущен локально.

  4. Настройте провайдера в i18n.json:

    {
      "$schema": "https://lingo.dev/schema/i18n.json",
      "version": "1.10",
      "locale": {
        "source": "en",
        "targets": ["es"]
      },
      "buckets": {
        "json": {
          "include": ["locales/[locale].json"]
        }
      },
      "provider": {
        "id": "ollama",
        "model": "llama3.2",
        "baseUrl": "http://localhost:11434",
        "prompt": "Translate the provided text from {source} to {target}."
      }
    }
    

API-ключ не требуется, так как Ollama работает локально на вашем компьютере.

Шаг 4. Генерация переводов

В каталоге проекта выполните следующую команду:

npx lingo.dev@latest run

Пользователи Windows: Если npx lingo.dev не запускается в вашей среде:

  1. Установите пакет: npm install lingo.dev@latest
  2. Используйте npx lingo вместо этого (например, npx lingo run)

CLI выполнит следующее:

  1. Определит, какие файлы нужно перевести, на основе файла i18n.json.
  2. Извлечёт переводимый контент из файлов.
  3. Отправит контент выбранному LLM-провайдеру для перевода.
  4. Запишет переведённый контент обратно в файловую систему.
  5. Создаст файл i18n.lock для отслеживания переведённого контента.

Чтобы узнать больше о полном жизненном цикле, смотрите Как это работает.

Дальнейшие шаги

Смотрите Команды CLI для полного списка команд, опций и флагов, доступных через CLI.