البدء السريع
ابدأ العمل مع Lingo.dev CLI
مقدمة
Lingo.dev CLI هو واجهة سطر أوامر مجانية ومفتوحة المصدر لترجمة التطبيقات والمحتوى باستخدام الذكاء الاصطناعي. يشرح هذا الدليل كيفية البدء والعمل مع Lingo.dev CLI في غضون دقائق.
الخطوة 1. تهيئة المشروع
-
انتقل إلى دليل المشروع:
cd <your-project-directory> -
قم بتشغيل الأمر التالي:
npx lingo.dev@latest initمستخدمو Windows: إذا لم يعمل
npx lingo.devفي بيئتك:- قم بتثبيت الحزمة:
npm install lingo.dev@latest - استخدم
npx lingoبدلاً من ذلك (على سبيل المثال،npx lingo init)
- قم بتثبيت الحزمة:
-
اتبع التعليمات المعروضة.
سيقوم CLI بإنشاء ملف i18n.json لتكوين خط أنابيب الترجمة.
الخطوة 2. تكوين حاوية
في ملف i18n.json، قم بتكوين حاوية واحدة على الأقل:
{
"$schema": "https://lingo.dev/schema/i18n.json",
"version": "1.10",
"locale": {
"source": "en",
"targets": ["es"]
},
"buckets": {
"json": {
"include": ["locales/[locale].json"]
}
}
}
تحدد الحاويات المحلل الذي يستخدمه Lingo.dev CLI لاستخراج المحتوى القابل للترجمة. على سبيل المثال، حاوية "json" مصممة خصيصاً لترجمة ملفات JSON.
يجب أن يحدد تكوين الحاوية نمطاً واحداً أو أكثر من أنماط include، والتي تحدد الملفات التي يجب ترجمتها. (يمكنك اختيارياً تحديد أنماط exclude للتحكم الإضافي.)
كن على علم بأن:
- يجب أن تحتوي أنماط
includeلبعض الحاويات على عنصر نائب خاص[locale]، ولكن في حالات أخرى لا يُسمح بهذا العنصر النائب بشكل صارم. - تدعم بعض الحاويات ميزات إضافية، مثل قفل المفاتيح.
لمعرفة المزيد حول المتطلبات الدقيقة لكل حاوية، راجع الوثائق الخاصة بكل حاوية، مثل JSON أو CSV.
الخطوة 3. تكوين مزود LLM
بعد أن يستخرج Lingo.dev CLI المحتوى من ملف، يرسله إلى نموذج لغوي كبير (LLM) للترجمة، قبل كتابة المحتوى المترجم مرة أخرى إلى نظام الملفات.
نوصي باستخدام Lingo.dev Engine — منصتنا المستضافة الخاصة — كمزود LLM، ولكن هذا ليس مطلوباً بشكل صارم. يدعم CLI عدداً من المزودين الخارجيين، مثل Anthropic وOpenAI.
محرك Lingo.dev
- سجّل الدخول إلى محرك Lingo.dev.
- انتقل إلى صفحة المشاريع.
- انقر على مفتاح API > نسخ.
- قم بتعيين متغير بيئة
LINGODOTDEV_API_KEYبقيمة مفتاح API.
مزود خدمة خارجي
-
احصل على مفتاح API من أحد المزودين المدعومين.
-
قم بتعيين متغير بيئة بقيمة مفتاح API:
- إذا كنت تستخدم Anthropic، قم بتعيين
ANTHROPIC_API_KEY - إذا كنت تستخدم Google، قم بتعيين
GOOGLE_API_KEY - إذا كنت تستخدم Mistral، قم بتعيين
MISTRAL_API_KEY - إذا كنت تستخدم OpenAI، قم بتعيين
OPENAI_API_KEY - إذا كنت تستخدم OpenRouter، قم بتعيين
OPENROUTER_API_KEY - إذا كنت تستخدم Ollama، لا حاجة لمفتاح API (يعمل محلياً)
- إذا كنت تستخدم Anthropic، قم بتعيين
-
في ملف
i18n.json، أضف كائنproviderبالخصائص التالية:id- معرّف مزود LLM (مثلopenai).model- معرّف نموذج محدد من مزود LLM (مثلgpt-4o-mini).prompt- الأمر الذي سيتم إرساله مع جميع طلبات LLM. استخدم{source}و{target}كقيم نائبة للغات المصدر والهدف. سيتم استبدالها في وقت التشغيل.
على سبيل المثال:
{ "$schema": "https://lingo.dev/schema/i18n.json", "version": "1.10", "locale": { "source": "en", "targets": ["es"] }, "buckets": { "json": { "include": ["locales/[locale].json"] } }, "provider": { "id": "openai", "model": "gpt-4o-mini", "prompt": "Translate the provided text from {source} to {target}." } }
لمعرفة المزيد حول الخيارات المتاحة، راجع i18n.json.
Ollama
-
قم بتثبيت Ollama من ollama.com.
-
قم بسحب نموذج (مثل
ollama pull llama3.2أوollama pull mistral). -
تأكد من تشغيل خدمة Ollama محلياً.
-
قم بتكوين المزود في
i18n.json:{ "$schema": "https://lingo.dev/schema/i18n.json", "version": "1.10", "locale": { "source": "en", "targets": ["es"] }, "buckets": { "json": { "include": ["locales/[locale].json"] } }, "provider": { "id": "ollama", "model": "llama3.2", "baseUrl": "http://localhost:11434", "prompt": "Translate the provided text from {source} to {target}." } }
لا يلزم مفتاح API حيث يعمل Ollama محلياً على جهازك.
الخطوة 4. إنشاء الترجمات
في دليل المشروع، قم بتشغيل الأمر التالي:
npx lingo.dev@latest run
مستخدمو Windows: إذا لم يعمل
npx lingo.devفي بيئتك:
- قم بتثبيت الحزمة:
npm install lingo.dev@latest- استخدم
npx lingoبدلاً من ذلك (على سبيل المثال،npx lingo run)
سيقوم CLI بما يلي:
- تحديد الملفات التي تحتاج إلى ترجمة، بناءً على ملف
i18n.json. - استخراج المحتوى القابل للترجمة من الملفات.
- إرسال المحتوى إلى موفر LLM المُكوَّن للترجمة.
- كتابة المحتوى المترجم مرة أخرى إلى نظام الملفات.
- إنشاء ملف
i18n.lockلتتبع المحتوى المترجم.
لمعرفة المزيد حول دورة الحياة الكاملة، راجع كيف يعمل.
الخطوات التالية
راجع أوامر CLI للحصول على القائمة الكاملة للأوامر والخيارات والعلامات المتاحة عبر CLI.