From 44835996832e3bc3b113e5aa09404f08c39bd608 Mon Sep 17 00:00:00 2001 From: Arvin Xu Date: Mon, 30 Sep 2024 14:48:33 +0800 Subject: [PATCH] =?UTF-8?q?=E2=9C=A8=20feat:=20add=20wenxin=20model=20prov?= =?UTF-8?q?ider=20(#4018)?= MIME-Version: 1.0 Content-Type: text/plain; charset=UTF-8 Content-Transfer-Encoding: 8bit * add wenxinyiyan * fix locale * 🐛 fix: support weinxin error handle * 🚨 chore: fix lint * 🚨 chore: fix lint * 优化 api key 提示弹窗 * Update wenxin.ts * Update wenxin.ts * Update providers.tsx * Update index.ts * Update wenxin.ts * add i18n * update i18n * fix QuotaLimitReached * add quota limit message * fix i18n * fix i18n * fix i18n * fix ERNIE-3.5 id * fix rate limit code and smoothing --------- Co-authored-by: LovelyGuYiMeng <76251800+LovelyGuYiMeng@users.noreply.github.com> --- locales/ar/error.json | 1 + locales/ar/modelProvider.json | 20 +++ locales/ar/models.json | 77 ++++++++- locales/ar/providers.json | 6 + locales/bg-BG/error.json | 1 + locales/bg-BG/modelProvider.json | 20 +++ locales/bg-BG/models.json | 77 ++++++++- locales/bg-BG/providers.json | 6 + locales/de-DE/error.json | 1 + locales/de-DE/modelProvider.json | 20 +++ locales/de-DE/models.json | 77 ++++++++- locales/de-DE/providers.json | 6 + locales/en-US/error.json | 1 + locales/en-US/modelProvider.json | 20 +++ locales/en-US/models.json | 77 ++++++++- locales/en-US/providers.json | 6 + locales/es-ES/error.json | 1 + locales/es-ES/modelProvider.json | 20 +++ locales/es-ES/models.json | 77 ++++++++- locales/es-ES/providers.json | 6 + locales/fr-FR/error.json | 1 + locales/fr-FR/modelProvider.json | 20 +++ locales/fr-FR/models.json | 77 ++++++++- locales/fr-FR/providers.json | 6 + locales/it-IT/error.json | 1 + locales/it-IT/modelProvider.json | 20 +++ locales/it-IT/models.json | 77 ++++++++- locales/it-IT/providers.json | 6 + locales/ja-JP/error.json | 1 + locales/ja-JP/modelProvider.json | 20 +++ locales/ja-JP/models.json | 77 ++++++++- locales/ja-JP/providers.json | 6 + locales/ko-KR/error.json | 1 + locales/ko-KR/modelProvider.json | 20 +++ locales/ko-KR/models.json | 77 ++++++++- locales/ko-KR/providers.json | 6 + locales/nl-NL/error.json | 1 + locales/nl-NL/modelProvider.json | 20 +++ locales/nl-NL/models.json | 77 ++++++++- locales/nl-NL/providers.json | 6 + locales/pl-PL/error.json | 1 + locales/pl-PL/modelProvider.json | 20 +++ locales/pl-PL/models.json | 77 ++++++++- locales/pl-PL/providers.json | 6 + locales/pt-BR/error.json | 1 + locales/pt-BR/modelProvider.json | 20 +++ locales/pt-BR/models.json | 77 ++++++++- locales/pt-BR/providers.json | 6 + locales/ru-RU/error.json | 1 + locales/ru-RU/modelProvider.json | 20 +++ locales/ru-RU/models.json | 77 ++++++++- locales/ru-RU/providers.json | 6 + locales/tr-TR/error.json | 1 + locales/tr-TR/modelProvider.json | 20 +++ locales/tr-TR/models.json | 77 ++++++++- locales/tr-TR/providers.json | 6 + locales/vi-VN/error.json | 1 + locales/vi-VN/modelProvider.json | 20 +++ locales/vi-VN/models.json | 77 ++++++++- locales/vi-VN/providers.json | 6 + locales/zh-CN/error.json | 1 + locales/zh-CN/modelProvider.json | 20 +++ locales/zh-CN/models.json | 83 ++++++++- locales/zh-CN/providers.json | 6 + locales/zh-TW/error.json | 1 + locales/zh-TW/modelProvider.json | 20 +++ locales/zh-TW/models.json | 77 ++++++++- locales/zh-TW/providers.json | 6 + package.json | 3 +- .../llm/ProviderList/Wenxin/index.tsx | 46 +++++ .../settings/llm/ProviderList/providers.tsx | 5 +- src/app/api/chat/agentRuntime.test.ts | 21 +++ src/app/api/chat/wenxin/route.test.ts | 27 +++ src/app/api/chat/wenxin/route.ts | 30 ++++ src/app/api/errorResponse.ts | 4 + src/config/llm.ts | 8 + src/config/modelProviders/index.ts | 4 + src/config/modelProviders/wenxin.ts | 159 ++++++++++++++++++ src/const/auth.ts | 4 + src/const/settings/llm.ts | 5 + .../Conversation/Error/APIKeyForm/Wenxin.tsx | 49 ++++++ .../Conversation/Error/APIKeyForm/index.tsx | 3 + src/features/Conversation/Error/index.tsx | 1 + src/libs/agent-runtime/AgentRuntime.test.ts | 1 + src/libs/agent-runtime/error.ts | 1 + src/libs/agent-runtime/types/type.ts | 1 + .../utils/streams/wenxin.test.ts | 149 ++++++++++++++++ .../agent-runtime/utils/streams/wenxin.ts | 46 +++++ src/libs/agent-runtime/wenxin/index.ts | 106 ++++++++++++ src/libs/agent-runtime/wenxin/type.ts | 84 +++++++++ src/locales/default/error.ts | 2 + src/locales/default/modelProvider.ts | 20 +++ src/server/globalConfig/index.ts | 5 +- src/services/_auth.ts | 14 ++ .../slices/modelList/selectors/keyVaults.ts | 2 + src/types/user/settings/keyVaults.ts | 6 + 96 files changed, 2506 insertions(+), 74 deletions(-) create mode 100644 src/app/(main)/settings/llm/ProviderList/Wenxin/index.tsx create mode 100644 src/app/api/chat/wenxin/route.test.ts create mode 100644 src/app/api/chat/wenxin/route.ts create mode 100644 src/config/modelProviders/wenxin.ts create mode 100644 src/features/Conversation/Error/APIKeyForm/Wenxin.tsx create mode 100644 src/libs/agent-runtime/utils/streams/wenxin.test.ts create mode 100644 src/libs/agent-runtime/utils/streams/wenxin.ts create mode 100644 src/libs/agent-runtime/wenxin/index.ts create mode 100644 src/libs/agent-runtime/wenxin/type.ts diff --git a/locales/ar/error.json b/locales/ar/error.json index 0dc4f287bec9..b5aa84624ce9 100644 --- a/locales/ar/error.json +++ b/locales/ar/error.json @@ -81,6 +81,7 @@ "PluginServerError": "خطأ في استجابة الخادم لطلب الإضافة، يرجى التحقق من ملف وصف الإضافة وتكوين الإضافة وتنفيذ الخادم وفقًا لمعلومات الخطأ أدناه", "PluginSettingsInvalid": "تحتاج هذه الإضافة إلى تكوين صحيح قبل الاستخدام، يرجى التحقق من صحة تكوينك", "ProviderBizError": "طلب خدمة {{provider}} خاطئ، يرجى التحقق من المعلومات التالية أو إعادة المحاولة", + "QuotaLimitReached": "عذرًا، لقد reached الحد الأقصى من استخدام الرموز أو عدد الطلبات لهذا المفتاح. يرجى زيادة حصة هذا المفتاح أو المحاولة لاحقًا.", "StreamChunkError": "خطأ في تحليل كتلة الرسالة لطلب التدفق، يرجى التحقق مما إذا كانت واجهة برمجة التطبيقات الحالية تتوافق مع المعايير، أو الاتصال بمزود واجهة برمجة التطبيقات الخاصة بك للاستفسار.", "SubscriptionPlanLimit": "لقد استنفذت حصتك من الاشتراك، لا يمكنك استخدام هذه الوظيفة، يرجى الترقية إلى خطة أعلى أو شراء حزمة موارد للمتابعة", "UnknownChatFetchError": "عذرًا، حدث خطأ غير معروف في الطلب، يرجى التحقق من المعلومات التالية أو المحاولة مرة أخرى" diff --git a/locales/ar/modelProvider.json b/locales/ar/modelProvider.json index c15f1f359702..a3e2e99160a1 100644 --- a/locales/ar/modelProvider.json +++ b/locales/ar/modelProvider.json @@ -112,6 +112,26 @@ "title": "Download specified Ollama model" } }, + "wenxin": { + "accessKey": { + "desc": "أدخل مفتاح الوصول من منصة بايدو تشيانفان", + "placeholder": "مفتاح الوصول لتشيانفان", + "title": "مفتاح الوصول" + }, + "checker": { + "desc": "اختبر ما إذا كان مفتاح الوصول / مفتاح السر صحيحًا" + }, + "secretKey": { + "desc": "أدخل مفتاح السر من منصة بايدو تشيانفان", + "placeholder": "مفتاح السر لتشيانفان", + "title": "مفتاح السر" + }, + "unlock": { + "customRegion": "منطقة الخدمة المخصصة", + "description": "أدخل مفتاح الوصول / مفتاح السر لبدء المحادثة. التطبيق لن يسجل إعدادات المصادقة الخاصة بك", + "title": "استخدام معلومات مصادقة وينشين يي يان المخصصة" + } + }, "zeroone": { "title": "01.AI الأشياء الصغرى" }, diff --git a/locales/ar/models.json b/locales/ar/models.json index 5fb510a3ad68..3ceef276748e 100644 --- a/locales/ar/models.json +++ b/locales/ar/models.json @@ -32,6 +32,39 @@ "Baichuan4": { "description": "النموذج الأول في البلاد من حيث القدرة، يتفوق على النماذج الرئيسية الأجنبية في المهام الصينية مثل الموسوعات، والنصوص الطويلة، والإبداع. كما يتمتع بقدرات متعددة الوسائط رائدة في الصناعة، ويظهر أداءً ممتازًا في العديد من معايير التقييم الموثوقة." }, + "ERNIE-3.5-128K": { + "description": "نموذج اللغة الكبير الرائد الذي طورته بايدو، يغطي كمية هائلة من البيانات باللغة الصينية والإنجليزية، ويتميز بقدرات عامة قوية، يمكنه تلبية معظم متطلبات الحوار، والإجابة على الأسئلة، وإنشاء المحتوى، وتطبيقات الإضافات؛ يدعم الاتصال التلقائي بإضافات بحث بايدو، مما يضمن تحديث معلومات الإجابة." + }, + "ERNIE-3.5-8K": { + "description": "نموذج اللغة الكبير الرائد الذي طورته بايدو، يغطي كمية هائلة من البيانات باللغة الصينية والإنجليزية، ويتميز بقدرات عامة قوية، يمكنه تلبية معظم متطلبات الحوار، والإجابة على الأسئلة، وإنشاء المحتوى، وتطبيقات الإضافات؛ يدعم الاتصال التلقائي بإضافات بحث بايدو، مما يضمن تحديث معلومات الإجابة." + }, + "ERNIE-3.5-8K-Preview": { + "description": "نموذج اللغة الكبير الرائد الذي طورته بايدو، يغطي كمية هائلة من البيانات باللغة الصينية والإنجليزية، ويتميز بقدرات عامة قوية، يمكنه تلبية معظم متطلبات الحوار، والإجابة على الأسئلة، وإنشاء المحتوى، وتطبيقات الإضافات؛ يدعم الاتصال التلقائي بإضافات بحث بايدو، مما يضمن تحديث معلومات الإجابة." + }, + "ERNIE-4.0-8K-Latest": { + "description": "نموذج اللغة الكبير الرائد الذي طورته بايدو، والذي شهد ترقية شاملة في القدرات مقارنةً بـERNIE 3.5، ويستخدم على نطاق واسع في مجالات متعددة لمهام معقدة؛ يدعم الاتصال التلقائي بإضافات بحث بايدو لضمان تحديث معلومات الإجابة." + }, + "ERNIE-4.0-8K-Preview": { + "description": "نموذج اللغة الكبير الرائد الذي طورته بايدو، والذي شهد ترقية شاملة في القدرات مقارنةً بـERNIE 3.5، ويستخدم على نطاق واسع في مجالات متعددة لمهام معقدة؛ يدعم الاتصال التلقائي بإضافات بحث بايدو لضمان تحديث معلومات الإجابة." + }, + "ERNIE-4.0-Turbo-8K": { + "description": "نموذج اللغة الكبير الرائد الذي طورته بايدو، يتميز بأداء شامل ممتاز، ويستخدم على نطاق واسع في مجالات متعددة لمهام معقدة؛ يدعم الاتصال التلقائي بإضافات بحث بايدو لضمان تحديث معلومات الإجابة. مقارنةً بـERNIE 4.0، يتمتع بأداء أفضل." + }, + "ERNIE-4.0-Turbo-8K-Preview": { + "description": "نموذج اللغة الكبير الرائد الذي طورته بايدو، يتميز بأداء شامل ممتاز، ويستخدم على نطاق واسع في مجالات متعددة لمهام معقدة؛ يدعم الاتصال التلقائي بإضافات بحث بايدو لضمان تحديث معلومات الإجابة. مقارنةً بـERNIE 4.0، يتمتع بأداء أفضل." + }, + "ERNIE-Character-8K": { + "description": "نموذج اللغة الكبير الذي طورته بايدو، مناسب لمشاهد الألعاب، والحوار مع خدمة العملاء، وأدوار الحوار، وغيرها من تطبيقات السيناريوهات، حيث يتميز بأسلوب شخصيات واضح ومتسق، وقدرة قوية على اتباع التعليمات، وأداء استدلال أفضل." + }, + "ERNIE-Lite-Pro-128K": { + "description": "نموذج اللغة الخفيف الذي طورته بايدو، يجمع بين أداء النموذج الممتاز وأداء الاستدلال، ويتميز بأداء أفضل من ERNIE Lite، مناسب للاستخدام في بطاقات تسريع الذكاء الاصطناعي ذات القدرة الحاسوبية المنخفضة." + }, + "ERNIE-Speed-128K": { + "description": "نموذج اللغة الكبير عالي الأداء الذي طورته بايدو، والذي تم إصداره في عام 2024، يتمتع بقدرات عامة ممتازة، مناسب كنموذج أساسي للتعديل الدقيق، مما يساعد على معالجة مشكلات السيناريوهات المحددة بشكل أفضل، مع أداء استدلال ممتاز." + }, + "ERNIE-Speed-Pro-128K": { + "description": "نموذج اللغة الكبير عالي الأداء الذي طورته بايدو، والذي تم إصداره في عام 2024، يتمتع بقدرات عامة ممتازة، ويتميز بأداء أفضل من ERNIE Speed، مناسب كنموذج أساسي للتعديل الدقيق، مما يساعد على معالجة مشكلات السيناريوهات المحددة بشكل أفضل، مع أداء استدلال ممتاز." + }, "Gryphe/MythoMax-L2-13b": { "description": "MythoMax-L2 (13B) هو نموذج مبتكر، مناسب لتطبيقات متعددة المجالات والمهام المعقدة." }, @@ -401,6 +434,9 @@ "glm-4-flash": { "description": "GLM-4-Flash هو الخيار المثالي لمعالجة المهام البسيطة، حيث يتمتع بأسرع سرعة وأفضل سعر." }, + "glm-4-flashx": { + "description": "GLM-4-FlashX هو إصدار معزز من Flash، يتميز بسرعة استدلال فائقة." + }, "glm-4-long": { "description": "GLM-4-Long يدعم إدخالات نصية طويلة جدًا، مما يجعله مناسبًا للمهام الذاكرية ومعالجة الوثائق الكبيرة." }, @@ -413,11 +449,11 @@ "glm-4v-plus": { "description": "GLM-4V-Plus يتمتع بقدرة على فهم محتوى الفيديو والصور المتعددة، مما يجعله مناسبًا للمهام متعددة الوسائط." }, - "google/gemini-flash-1.5-exp": { - "description": "Gemini 1.5 Flash 0827 يوفر قدرات معالجة متعددة الوسائط محسّنة، مناسبة لمجموعة متنوعة من سيناريوهات المهام المعقدة." + "google/gemini-flash-1.5": { + "description": "يقدم Gemini 1.5 Flash قدرات معالجة متعددة الوسائط محسّنة، مناسبة لمجموعة متنوعة من سيناريوهات المهام المعقدة." }, - "google/gemini-pro-1.5-exp": { - "description": "Gemini 1.5 Pro 0827 يجمع بين أحدث تقنيات التحسين، مما يوفر قدرة معالجة بيانات متعددة الوسائط أكثر كفاءة." + "google/gemini-pro-1.5": { + "description": "يجمع Gemini 1.5 Pro بين أحدث تقنيات التحسين، مما يوفر قدرة معالجة بيانات متعددة الوسائط بشكل أكثر كفاءة." }, "google/gemma-2-27b-it": { "description": "Gemma 2 تستمر في مفهوم التصميم الخفيف والفعال." @@ -491,6 +527,33 @@ "gryphe/mythomax-l2-13b": { "description": "MythoMax l2 13B هو نموذج لغوي يجمع بين الإبداع والذكاء من خلال دمج عدة نماذج رائدة." }, + "hunyuan-code": { + "description": "نموذج توليد الشيفرة الأحدث من Hunyuan، تم تدريبه على نموذج أساسي من بيانات الشيفرة عالية الجودة بحجم 200B، مع تدريب عالي الجودة على بيانات SFT لمدة ستة أشهر، وزيادة طول نافذة السياق إلى 8K، ويحتل مرتبة متقدمة في مؤشرات التقييم التلقائي لتوليد الشيفرة في خمس لغات؛ كما أنه في الطليعة في تقييمات الشيفرة عالية الجودة عبر عشرة معايير في خمس لغات." + }, + "hunyuan-functioncall": { + "description": "نموذج Hunyuan الأحدث من نوع MOE FunctionCall، تم تدريبه على بيانات FunctionCall عالية الجودة، مع نافذة سياق تصل إلى 32K، ويحتل مرتبة متقدمة في مؤشرات التقييم عبر عدة أبعاد." + }, + "hunyuan-lite": { + "description": "تم الترقية إلى هيكل MOE، مع نافذة سياق تصل إلى 256k، متفوقًا على العديد من النماذج مفتوحة المصدر في تقييمات NLP، البرمجة، الرياضيات، والصناعات." + }, + "hunyuan-pro": { + "description": "نموذج نصوص طويلة MOE-32K بحجم تريليون من المعلمات. يحقق مستوى رائد مطلق في مختلف المعايير، مع القدرة على التعامل مع التعليمات المعقدة والاستدلال، ويتميز بقدرات رياضية معقدة، ويدعم استدعاء الوظائف، مع تحسينات رئيسية في مجالات الترجمة متعددة اللغات، المالية، القانونية، والرعاية الصحية." + }, + "hunyuan-role": { + "description": "نموذج Hunyuan الأحدث لتقمص الأدوار، تم تطويره من قبل Hunyuan مع تدريب دقيق، يعتمد على نموذج Hunyuan مع مجموعة بيانات سيناريوهات تقمص الأدوار، مما يوفر أداءً أفضل في سيناريوهات تقمص الأدوار." + }, + "hunyuan-standard": { + "description": "يستخدم استراتيجية توجيه أفضل، مع تخفيف مشكلات التوازن في الحمل وتوافق الخبراء. في مجال النصوص الطويلة، تصل نسبة مؤشر البحث إلى 99.9%. MOE-32K يقدم قيمة أفضل، مع تحقيق توازن بين الأداء والسعر، مما يسمح بمعالجة المدخلات النصية الطويلة." + }, + "hunyuan-standard-256K": { + "description": "يستخدم استراتيجية توجيه أفضل، مع تخفيف مشكلات التوازن في الحمل وتوافق الخبراء. في مجال النصوص الطويلة، تصل نسبة مؤشر البحث إلى 99.9%. MOE-256K يحقق اختراقًا إضافيًا في الطول والأداء، مما يوسع بشكل كبير طول المدخلات الممكنة." + }, + "hunyuan-turbo": { + "description": "نسخة المعاينة من الجيل الجديد من نموذج اللغة الكبير، يستخدم هيكل نموذج الخبراء المختلط (MoE) الجديد، مما يوفر كفاءة استدلال أسرع وأداء أقوى مقارنة بـ hunyuan-pro." + }, + "hunyuan-vision": { + "description": "نموذج Hunyuan الأحدث متعدد الوسائط، يدعم إدخال الصور والنصوص لتوليد محتوى نصي." + }, "internlm/internlm2_5-20b-chat": { "description": "نموذج مفتوح المصدر مبتكر InternLM2.5، يعزز الذكاء الحواري من خلال عدد كبير من المعلمات." }, @@ -634,6 +697,12 @@ "meta-llama/llama-3.1-8b-instruct:free": { "description": "LLaMA 3.1 يوفر دعمًا متعدد اللغات، وهو واحد من النماذج الرائدة في الصناعة في مجال التوليد." }, + "meta-llama/llama-3.2-11b-vision-instruct": { + "description": "تم تصميم LLaMA 3.2 لمعالجة المهام التي تجمع بين البيانات البصرية والنصية. إنه يتفوق في مهام وصف الصور والأسئلة البصرية، متجاوزًا الفجوة بين توليد اللغة والاستدلال البصري." + }, + "meta-llama/llama-3.2-90b-vision-instruct": { + "description": "تم تصميم LLaMA 3.2 لمعالجة المهام التي تجمع بين البيانات البصرية والنصية. إنه يتفوق في مهام وصف الصور والأسئلة البصرية، متجاوزًا الفجوة بين توليد اللغة والاستدلال البصري." + }, "meta.llama3-1-405b-instruct-v1:0": { "description": "نموذج Meta Llama 3.1 405B Instruct هو أكبر وأقوى نموذج في مجموعة نماذج Llama 3.1 Instruct، وهو نموذج متقدم للغاية لتوليد البيانات والحوار، ويمكن استخدامه كأساس للتدريب المستمر أو التخصيص في مجالات معينة. توفر Llama 3.1 نماذج لغوية كبيرة متعددة اللغات (LLMs) وهي مجموعة من النماذج المدربة مسبقًا والمعدلة وفقًا للتعليمات، بما في ذلك أحجام 8B و70B و405B (إدخال/إخراج نصي). تم تحسين نماذج النص المعدلة وفقًا للتعليمات (8B و70B و405B) لحالات الاستخدام الحوارية متعددة اللغات، وقد تفوقت في العديد من اختبارات المعايير الصناعية الشائعة على العديد من نماذج الدردشة مفتوحة المصدر المتاحة. تم تصميم Llama 3.1 للاستخدام التجاري والبحثي في عدة لغات. نماذج النص المعدلة وفقًا للتعليمات مناسبة للدردشة الشبيهة بالمساعد، بينما يمكن للنماذج المدربة مسبقًا التكيف مع مجموعة متنوعة من مهام توليد اللغة الطبيعية. تدعم نماذج Llama 3.1 أيضًا تحسين نماذج أخرى باستخدام مخرجاتها، بما في ذلك توليد البيانات الاصطناعية والتنقيح. Llama 3.1 هو نموذج لغوي ذاتي التكرار يستخدم بنية المحولات المحسّنة. تستخدم النسخ المعدلة التعلم المعزز مع التغذية الراجعة البشرية (RLHF) لتلبية تفضيلات البشر فيما يتعلق بالمساعدة والأمان." }, diff --git a/locales/ar/providers.json b/locales/ar/providers.json index 9daacf2d1fa6..9056bb75dc32 100644 --- a/locales/ar/providers.json +++ b/locales/ar/providers.json @@ -30,6 +30,9 @@ "groq": { "description": "يتميز محرك الاستدلال LPU من Groq بأداء ممتاز في أحدث اختبارات المعايير لنماذج اللغة الكبيرة المستقلة (LLM)، حيث أعاد تعريف معايير حلول الذكاء الاصطناعي بسرعته وكفاءته المذهلة. Groq يمثل سرعة استدلال فورية، ويظهر أداءً جيدًا في النشر القائم على السحابة." }, + "hunyuan": { + "description": "نموذج لغة متقدم تم تطويره بواسطة Tencent، يتمتع بقدرة قوية على الإبداع باللغة الصينية، وقدرة على الاستدلال المنطقي في سياقات معقدة، بالإضافة إلى قدرة موثوقة على تنفيذ المهام." + }, "minimax": { "description": "MiniMax هي شركة تكنولوجيا الذكاء الاصطناعي العامة التي تأسست في عام 2021، تكرس جهودها للتعاون مع المستخدمين في إنشاء الذكاء. طورت MiniMax نماذج كبيرة عامة من أوضاع مختلفة، بما في ذلك نموذج نصي MoE الذي يحتوي على تريليونات من المعلمات، ونموذج صوتي، ونموذج صور. وقد أطلقت تطبيقات مثل Conch AI." }, @@ -75,6 +78,9 @@ "upstage": { "description": "تتخصص Upstage في تطوير نماذج الذكاء الاصطناعي لتلبية احتياجات الأعمال المتنوعة، بما في ذلك Solar LLM وDocument AI، بهدف تحقيق الذكاء الاصطناعي العام (AGI) القائم على العمل. من خلال واجهة Chat API، يمكن إنشاء وكلاء حوار بسيطين، وتدعم استدعاء الوظائف، والترجمة، والتضمين، وتطبيقات المجالات المحددة." }, + "wenxin": { + "description": "منصة تطوير وخدمات النماذج الكبيرة والتطبيقات الأصلية للذكاء الاصطناعي على مستوى المؤسسات، تقدم مجموعة شاملة وسهلة الاستخدام من أدوات تطوير النماذج الذكية التوليدية وأدوات تطوير التطبيقات على مدار العملية بأكملها." + }, "zeroone": { "description": "01.AI تركز على تقنيات الذكاء الاصطناعي في عصر الذكاء الاصطناعي 2.0، وتعزز الابتكار والتطبيقات \"الإنسان + الذكاء الاصطناعي\"، باستخدام نماذج قوية وتقنيات ذكاء اصطناعي متقدمة لتعزيز إنتاجية البشر وتحقيق تمكين التكنولوجيا." }, diff --git a/locales/bg-BG/error.json b/locales/bg-BG/error.json index 252b5395ea5d..a59c26b72c94 100644 --- a/locales/bg-BG/error.json +++ b/locales/bg-BG/error.json @@ -81,6 +81,7 @@ "PluginServerError": "Заявката към сървъра на плъгина върна грешка. Моля, проверете файла на манифеста на плъгина, конфигурацията на плъгина или изпълнението на сървъра въз основа на информацията за грешката по-долу", "PluginSettingsInvalid": "Този плъгин трябва да бъде конфигуриран правилно, преди да може да се използва. Моля, проверете дали конфигурацията ви е правилна", "ProviderBizError": "Грешка в услугата на {{provider}}, моля проверете следната информация или опитайте отново", + "QuotaLimitReached": "Съжаляваме, но текущото използване на токени или брой на заявките е достигнало лимита на квотата за този ключ. Моля, увеличете квотата на ключа или опитайте отново по-късно.", "StreamChunkError": "Грешка при парсирането на съобщение от потокова заявка. Моля, проверете дали текущият API интерфейс отговаря на стандартите или се свържете с вашия доставчик на API за консултация.", "SubscriptionPlanLimit": "Изчерпали сте вашия абонаментен лимит и не можете да използвате тази функционалност. Моля, надстройте до по-висок план или закупете допълнителни ресурси, за да продължите да я използвате.", "UnknownChatFetchError": "Съжаляваме, възникна неизвестна грешка при заявката. Моля, проверете информацията по-долу или опитайте отново." diff --git a/locales/bg-BG/modelProvider.json b/locales/bg-BG/modelProvider.json index a3f7446cdb0e..016ee1d8f87c 100644 --- a/locales/bg-BG/modelProvider.json +++ b/locales/bg-BG/modelProvider.json @@ -112,6 +112,26 @@ "title": "Download specified Ollama model" } }, + "wenxin": { + "accessKey": { + "desc": "Въведете Access Key от платформата Baidu Qianfan", + "placeholder": "Qianfan Access Key", + "title": "Access Key" + }, + "checker": { + "desc": "Тествайте дали AccessKey / SecretAccess е попълнен правилно" + }, + "secretKey": { + "desc": "Въведете Secret Key от платформата Baidu Qianfan", + "placeholder": "Qianfan Secret Key", + "title": "Secret Key" + }, + "unlock": { + "customRegion": "Персонализиран регион на услугата", + "description": "Въведете вашия AccessKey / SecretKey, за да започнете сесия. Приложението няма да запомня вашите конфигурации за удостоверяване", + "title": "Използвайте персонализирана информация за удостоверяване на Wenxin Yiyan" + } + }, "zeroone": { "title": "01.AI Зероуан Всичко" }, diff --git a/locales/bg-BG/models.json b/locales/bg-BG/models.json index 81f5ed768fad..40d63f23f236 100644 --- a/locales/bg-BG/models.json +++ b/locales/bg-BG/models.json @@ -32,6 +32,39 @@ "Baichuan4": { "description": "Моделът е с най-добри способности в страната, надминаващ чуждестранните водещи модели в задачи като енциклопедични знания, дълги текстове и генериране на съдържание. Също така притежава водещи в индустрията мултимодални способности и отлични резултати в множество авторитетни тестови стандарти." }, + "ERNIE-3.5-128K": { + "description": "Флагманският модел на Baidu, разработен самостоятелно, е мащабен езиков модел, който обхваща огромно количество китайски и английски текстове. Той притежава мощни общи способности и може да отговори на почти всички изисквания за диалогови въпроси и отговори, генериране на съдържание и приложения с плъгини; поддържа автоматично свързване с плъгина за търсене на Baidu, осигурявайки актуалност на информацията за отговорите." + }, + "ERNIE-3.5-8K": { + "description": "Флагманският модел на Baidu, разработен самостоятелно, е мащабен езиков модел, който обхваща огромно количество китайски и английски текстове. Той притежава мощни общи способности и може да отговори на почти всички изисквания за диалогови въпроси и отговори, генериране на съдържание и приложения с плъгини; поддържа автоматично свързване с плъгина за търсене на Baidu, осигурявайки актуалност на информацията за отговорите." + }, + "ERNIE-3.5-8K-Preview": { + "description": "Флагманският модел на Baidu, разработен самостоятелно, е мащабен езиков модел, който обхваща огромно количество китайски и английски текстове. Той притежава мощни общи способности и може да отговори на почти всички изисквания за диалогови въпроси и отговори, генериране на съдържание и приложения с плъгини; поддържа автоматично свързване с плъгина за търсене на Baidu, осигурявайки актуалност на информацията за отговорите." + }, + "ERNIE-4.0-8K-Latest": { + "description": "Флагманският модел на Baidu за изключително големи езикови модели, разработен самостоятелно, е напълно обновен в сравнение с ERNIE 3.5 и е широко приложим в сложни задачи в различни области; поддържа автоматично свързване с плъгина за търсене на Baidu, осигурявайки актуалност на информацията за отговори." + }, + "ERNIE-4.0-8K-Preview": { + "description": "Флагманският модел на Baidu за изключително големи езикови модели, разработен самостоятелно, е напълно обновен в сравнение с ERNIE 3.5 и е широко приложим в сложни задачи в различни области; поддържа автоматично свързване с плъгина за търсене на Baidu, осигурявайки актуалност на информацията за отговори." + }, + "ERNIE-4.0-Turbo-8K": { + "description": "Флагманският модел на Baidu за изключително големи езикови модели, разработен самостоятелно, показва отлични резултати и е широко приложим в сложни задачи в различни области; поддържа автоматично свързване с плъгина за търсене на Baidu, осигурявайки актуалност на информацията за отговори. В сравнение с ERNIE 4.0, представянето му е по-добро." + }, + "ERNIE-4.0-Turbo-8K-Preview": { + "description": "Флагманският модел на Baidu за изключително големи езикови модели, разработен самостоятелно, показва отлични резултати и е широко приложим в сложни задачи в различни области; поддържа автоматично свързване с плъгина за търсене на Baidu, осигурявайки актуалност на информацията за отговори. В сравнение с ERNIE 4.0, представянето му е по-добро." + }, + "ERNIE-Character-8K": { + "description": "Специализиран модел на Baidu за големи езикови модели, разработен самостоятелно, подходящ за приложения като NPC в игри, клиентски разговори и ролеви игри, с по-изразителен и последователен стил на персонажите, по-силна способност за следване на инструкции и по-добра производителност при извеждане." + }, + "ERNIE-Lite-Pro-128K": { + "description": "Лек модел на Baidu за големи езикови модели, разработен самостоятелно, който съчетава отлични резултати с производителност при извеждане, с по-добри резултати в сравнение с ERNIE Lite, подходящ за използване с AI ускорителни карти с ниска изчислителна мощ." + }, + "ERNIE-Speed-128K": { + "description": "Най-новият модел на Baidu за големи езикови модели с висока производителност, разработен самостоятелно, с отлични общи способности, подходящ за основен модел за фина настройка, за по-добро справяне с конкретни проблеми, като същевременно предлага отлична производителност при извеждане." + }, + "ERNIE-Speed-Pro-128K": { + "description": "Най-новият модел на Baidu за големи езикови модели с висока производителност, разработен самостоятелно, с отлични общи способности, по-добри резултати в сравнение с ERNIE Speed, подходящ за основен модел за фина настройка, за по-добро справяне с конкретни проблеми, като същевременно предлага отлична производителност при извеждане." + }, "Gryphe/MythoMax-L2-13b": { "description": "MythoMax-L2 (13B) е иновативен модел, подходящ за приложения в множество области и сложни задачи." }, @@ -401,6 +434,9 @@ "glm-4-flash": { "description": "GLM-4-Flash е идеалният избор за обработка на прости задачи, с най-бърза скорост и най-добра цена." }, + "glm-4-flashx": { + "description": "GLM-4-FlashX е подобрена версия на Flash с изключително бърза скорост на извеждане." + }, "glm-4-long": { "description": "GLM-4-Long поддържа извеждане на много дълги текстове, подходящ за задачи, свързани с памет и обработка на големи документи." }, @@ -413,11 +449,11 @@ "glm-4v-plus": { "description": "GLM-4V-Plus разполага с разбиране на видео съдържание и множество изображения, подходящ за мултимодални задачи." }, - "google/gemini-flash-1.5-exp": { - "description": "Gemini 1.5 Flash 0827 предлага оптимизирани мултимодални обработващи способности, подходящи за различни сложни задачи." + "google/gemini-flash-1.5": { + "description": "Gemini 1.5 Flash предлага оптимизирани мултимодални обработващи способности, подходящи за различни сложни задачи." }, - "google/gemini-pro-1.5-exp": { - "description": "Gemini 1.5 Pro 0827 комбинира най-новите оптимизационни технологии, предоставяйки по-ефективни способности за обработка на мултимодални данни." + "google/gemini-pro-1.5": { + "description": "Gemini 1.5 Pro комбинира най-новите оптимизационни технологии, предоставяйки по-ефективна обработка на мултимодални данни." }, "google/gemma-2-27b-it": { "description": "Gemma 2 продължава концепцията за лекота и ефективност." @@ -491,6 +527,33 @@ "gryphe/mythomax-l2-13b": { "description": "MythoMax l2 13B е езиков модел, който комбинира креативност и интелигентност, обединявайки множество водещи модели." }, + "hunyuan-code": { + "description": "Най-новият модел за генериране на код на HunYuan, обучен с 200B висококачествени данни за код, с шестмесечно обучение на данни за SFT с високо качество, увеличен контекстен прозорец до 8K, и водещи резултати в автоматичните оценъчни показатели за генериране на код на пет основни езика; в комплексната оценка на кодови задачи на пет основни езика, представянето е в първата група." + }, + "hunyuan-functioncall": { + "description": "Най-новият модел на HunYuan с MOE архитектура за извикване на функции, обучен с висококачествени данни за извикване на функции, с контекстен прозорец от 32K, водещ в множество измерения на оценъчните показатели." + }, + "hunyuan-lite": { + "description": "Актуализиран до MOE структура, контекстният прозорец е 256k, водещ в множество оценъчни набори в NLP, код, математика и индустрия, пред много от отворените модели." + }, + "hunyuan-pro": { + "description": "Модел с параметри от триллион MOE-32K за дълги текстове. Постига абсолютни водещи нива в различни бенчмаркове, с комплексни инструкции и разсъждения, притежаващи сложни математически способности, поддържа функция за извикване, с акцент върху оптимизацията в области като многоезичен превод, финанси, право и медицина." + }, + "hunyuan-role": { + "description": "Най-новият модел за ролеви игри на HunYuan, официално настроен и обучен от HunYuan, базиран на модела HunYuan и данни от набори за ролеви игри, с по-добри основни резултати в ролевите игри." + }, + "hunyuan-standard": { + "description": "Използва по-добра стратегия за маршрутизиране, като същевременно облекчава проблемите с балансирането на натоварването и сближаването на експертите. За дълги текстове, показателят за откритие достига 99.9%. MOE-32K предлага по-добра цена-качество, балансирайки ефективността и цената, и позволява обработка на дълги текстови входове." + }, + "hunyuan-standard-256K": { + "description": "Използва по-добра стратегия за маршрутизиране, като същевременно облекчава проблемите с балансирането на натоварването и сближаването на експертите. За дълги текстове, показателят за откритие достига 99.9%. MOE-256K прави допълнителен пробив в дължината и ефективността, значително разширявайки допустимата дължина на входа." + }, + "hunyuan-turbo": { + "description": "Предварителна версия на новото поколение голям езиков модел на HunYuan, използваща нова структура на смесен експертен модел (MoE), с по-бърза скорост на извеждане и по-силни резултати в сравнение с hunyuan-pro." + }, + "hunyuan-vision": { + "description": "Най-новият мултимодален модел на HunYuan, поддържащ генериране на текстово съдържание от изображения и текстови входове." + }, "internlm/internlm2_5-20b-chat": { "description": "Иновативният отворен модел InternLM2.5 повишава интелигентността на диалога чрез голям брой параметри." }, @@ -634,6 +697,12 @@ "meta-llama/llama-3.1-8b-instruct:free": { "description": "LLaMA 3.1 предлага поддръжка на множество езици и е един от водещите генеративни модели в индустрията." }, + "meta-llama/llama-3.2-11b-vision-instruct": { + "description": "LLaMA 3.2 е проектиран да обработва задачи, свързващи визуални и текстови данни. Той показва отлични резултати в задачи като описание на изображения и визуални въпроси, преодолявайки пропастта между генерирането на език и визуалното разсъждение." + }, + "meta-llama/llama-3.2-90b-vision-instruct": { + "description": "LLaMA 3.2 е проектиран да обработва задачи, свързващи визуални и текстови данни. Той показва отлични резултати в задачи като описание на изображения и визуални въпроси, преодолявайки пропастта между генерирането на език и визуалното разсъждение." + }, "meta.llama3-1-405b-instruct-v1:0": { "description": "Meta Llama 3.1 405B Instruct е най-голямата и най-мощната версия на модела Llama 3.1 Instruct. Това е високо напреднал модел за диалогово разсъждение и генериране на синтетични данни, който може да се използва и като основа за професионално продължително предварително обучение или фино настройване в специфични области. Многоезичният голям езиков модел (LLMs), предоставен от Llama 3.1, е набор от предварително обучени, коригирани по инструкции генеративни модели, включително размери 8B, 70B и 405B (текстов вход/изход). Текстовите модели, коригирани по инструкции (8B, 70B, 405B), са оптимизирани за многоезични диалогови случаи и надминават много налични отворени чат модели в общи индустриални бенчмаркове. Llama 3.1 е проектиран за търговски и изследователски цели на множество езици. Моделите, коригирани по инструкции, са подходящи за чатове, подобни на асистенти, докато предварително обучените модели могат да се адаптират към различни задачи за генериране на естествен език. Моделите на Llama 3.1 също поддържат използването на изхода на модела за подобряване на други модели, включително генериране на синтетични данни и рафиниране. Llama 3.1 е саморегресивен езиков модел, използващ оптимизирана трансформаторна архитектура. Коригираните версии използват супервизирано фино настройване (SFT) и обучение с човешка обратна връзка (RLHF), за да отговорят на предпочитанията на хората за полезност и безопасност." }, diff --git a/locales/bg-BG/providers.json b/locales/bg-BG/providers.json index 3dc565accb89..4a0cb9a6f9ad 100644 --- a/locales/bg-BG/providers.json +++ b/locales/bg-BG/providers.json @@ -30,6 +30,9 @@ "groq": { "description": "Инженерният двигател LPU на Groq показва изключителни резултати в последните независими тестове на големи езикови модели (LLM), преосмисляйки стандартите за AI решения с невероятната си скорост и ефективност. Groq е представител на мигновен скорост на изводите, демонстрирайки добро представяне в облачни внедрения." }, + "hunyuan": { + "description": "Модел на голям език, разработен от Tencent, който притежава мощни способности за създаване на текст на китайски, логическо разсъждение в сложни контексти и надеждни способности за изпълнение на задачи." + }, "minimax": { "description": "MiniMax е компания за универсален изкуствен интелект, основана през 2021 г., която се стреми да създаде интелигентност заедно с потребителите. MiniMax е разработила различни универсални големи модели, включително текстови модели с трилйон параметри, модели за глас и модели за изображения. Също така е пуснала приложения като Conch AI." }, @@ -75,6 +78,9 @@ "upstage": { "description": "Upstage се фокусира върху разработването на AI модели за различни бизнес нужди, включително Solar LLM и документен AI, с цел постигане на човешки универсален интелект (AGI). Създава прости диалогови агенти чрез Chat API и поддържа извикване на функции, превод, вграждане и специфични приложения." }, + "wenxin": { + "description": "Платформа за разработка и услуги на корпоративно ниво, предлагаща цялостно решение за разработка на генеративни модели на изкуствен интелект и приложения, с най-пълния и лесен за използване инструментариум за целия процес на разработка на модели и приложения." + }, "zeroone": { "description": "01.AI се фокусира върху технологии за изкуствен интелект от ерата на AI 2.0, активно насърчавайки иновации и приложения на \"човек + изкуствен интелект\", използвайки мощни модели и напреднали AI технологии за повишаване на производителността на човека и реализиране на технологично овластяване." }, diff --git a/locales/de-DE/error.json b/locales/de-DE/error.json index 8b6a66bc3596..1841c32ca684 100644 --- a/locales/de-DE/error.json +++ b/locales/de-DE/error.json @@ -81,6 +81,7 @@ "PluginServerError": "Fehler bei der Serveranfrage des Plugins. Bitte überprüfen Sie die Fehlerinformationen unten in Ihrer Plugin-Beschreibungsdatei, Plugin-Konfiguration oder Serverimplementierung", "PluginSettingsInvalid": "Das Plugin muss korrekt konfiguriert werden, um verwendet werden zu können. Bitte überprüfen Sie Ihre Konfiguration auf Richtigkeit", "ProviderBizError": "Fehler bei der Anforderung des {{provider}}-Dienstes. Bitte überprüfen Sie die folgenden Informationen oder versuchen Sie es erneut.", + "QuotaLimitReached": "Es tut uns leid, die aktuelle Token-Nutzung oder die Anzahl der Anfragen hat das Kontingent (Quota) für diesen Schlüssel erreicht. Bitte erhöhen Sie das Kontingent für diesen Schlüssel oder versuchen Sie es später erneut.", "StreamChunkError": "Fehler beim Parsen des Nachrichtenchunks der Streaming-Anfrage. Bitte überprüfen Sie, ob die aktuelle API-Schnittstelle den Standards entspricht, oder wenden Sie sich an Ihren API-Anbieter.", "SubscriptionPlanLimit": "Ihr Abonnementkontingent wurde aufgebraucht und Sie können diese Funktion nicht nutzen. Bitte aktualisieren Sie auf ein höheres Abonnement oder kaufen Sie ein Ressourcenpaket, um fortzufahren.", "UnknownChatFetchError": "Es tut uns leid, es ist ein unbekannter Anforderungsfehler aufgetreten. Bitte überprüfen Sie die folgenden Informationen oder versuchen Sie es erneut." diff --git a/locales/de-DE/modelProvider.json b/locales/de-DE/modelProvider.json index 99df752ea8f2..1f08a362b0df 100644 --- a/locales/de-DE/modelProvider.json +++ b/locales/de-DE/modelProvider.json @@ -112,6 +112,26 @@ "title": "Download specified Ollama model" } }, + "wenxin": { + "accessKey": { + "desc": "Geben Sie den Access Key der Baidu Qianfan-Plattform ein", + "placeholder": "Qianfan Access Key", + "title": "Access Key" + }, + "checker": { + "desc": "Überprüfen Sie, ob der AccessKey / SecretAccess korrekt eingegeben wurde" + }, + "secretKey": { + "desc": "Geben Sie den Secret Key der Baidu Qianfan-Plattform ein", + "placeholder": "Qianfan Secret Key", + "title": "Secret Key" + }, + "unlock": { + "customRegion": "Benutzerdefinierte Service-Region", + "description": "Geben Sie Ihren AccessKey / SecretKey ein, um die Sitzung zu starten. Die Anwendung speichert Ihre Authentifizierungseinstellungen nicht.", + "title": "Verwendung benutzerdefinierter Wenxin-Yiyan-Authentifizierungsinformationen" + } + }, "zeroone": { "title": "01.AI Alles und Nichts" }, diff --git a/locales/de-DE/models.json b/locales/de-DE/models.json index 3cdee8ebcfa4..3d3f9a055ced 100644 --- a/locales/de-DE/models.json +++ b/locales/de-DE/models.json @@ -32,6 +32,39 @@ "Baichuan4": { "description": "Das Modell hat die höchste Fähigkeit im Inland und übertrifft ausländische Mainstream-Modelle in Aufgaben wie Wissensdatenbanken, langen Texten und kreativer Generierung. Es verfügt auch über branchenführende multimodale Fähigkeiten und zeigt in mehreren autoritativen Bewertungsbenchmarks hervorragende Leistungen." }, + "ERNIE-3.5-128K": { + "description": "Das von Baidu entwickelte Flaggschiff-Modell für großangelegte Sprachverarbeitung, das eine riesige Menge an chinesischen und englischen Texten abdeckt. Es verfügt über starke allgemeine Fähigkeiten und kann die meisten Anforderungen an Dialogfragen, kreative Generierung und Anwendungsfälle von Plugins erfüllen. Es unterstützt die automatische Anbindung an das Baidu-Such-Plugin, um die Aktualität der Antwortinformationen zu gewährleisten." + }, + "ERNIE-3.5-8K": { + "description": "Das von Baidu entwickelte Flaggschiff-Modell für großangelegte Sprachverarbeitung, das eine riesige Menge an chinesischen und englischen Texten abdeckt. Es verfügt über starke allgemeine Fähigkeiten und kann die meisten Anforderungen an Dialogfragen, kreative Generierung und Anwendungsfälle von Plugins erfüllen. Es unterstützt die automatische Anbindung an das Baidu-Such-Plugin, um die Aktualität der Antwortinformationen zu gewährleisten." + }, + "ERNIE-3.5-8K-Preview": { + "description": "Das von Baidu entwickelte Flaggschiff-Modell für großangelegte Sprachverarbeitung, das eine riesige Menge an chinesischen und englischen Texten abdeckt. Es verfügt über starke allgemeine Fähigkeiten und kann die meisten Anforderungen an Dialogfragen, kreative Generierung und Anwendungsfälle von Plugins erfüllen. Es unterstützt die automatische Anbindung an das Baidu-Such-Plugin, um die Aktualität der Antwortinformationen zu gewährleisten." + }, + "ERNIE-4.0-8K-Latest": { + "description": "Das von Baidu entwickelte Flaggschiff-Modell für ultra-große Sprachverarbeitung, das im Vergleich zu ERNIE 3.5 eine umfassende Verbesserung der Modellfähigkeiten erreicht hat und sich breit für komplexe Aufgaben in verschiedenen Bereichen eignet; unterstützt die automatische Anbindung an das Baidu-Such-Plugin, um die Aktualität der Antwortinformationen zu gewährleisten." + }, + "ERNIE-4.0-8K-Preview": { + "description": "Das von Baidu entwickelte Flaggschiff-Modell für ultra-große Sprachverarbeitung, das im Vergleich zu ERNIE 3.5 eine umfassende Verbesserung der Modellfähigkeiten erreicht hat und sich breit für komplexe Aufgaben in verschiedenen Bereichen eignet; unterstützt die automatische Anbindung an das Baidu-Such-Plugin, um die Aktualität der Antwortinformationen zu gewährleisten." + }, + "ERNIE-4.0-Turbo-8K": { + "description": "Das von Baidu entwickelte Flaggschiff-Modell für ultra-große Sprachverarbeitung, das in der Gesamtleistung herausragend ist und sich breit für komplexe Aufgaben in verschiedenen Bereichen eignet; unterstützt die automatische Anbindung an das Baidu-Such-Plugin, um die Aktualität der Antwortinformationen zu gewährleisten. Im Vergleich zu ERNIE 4.0 bietet es eine bessere Leistungsfähigkeit." + }, + "ERNIE-4.0-Turbo-8K-Preview": { + "description": "Das von Baidu entwickelte Flaggschiff-Modell für ultra-große Sprachverarbeitung, das in der Gesamtleistung herausragend ist und sich breit für komplexe Aufgaben in verschiedenen Bereichen eignet; unterstützt die automatische Anbindung an das Baidu-Such-Plugin, um die Aktualität der Antwortinformationen zu gewährleisten. Im Vergleich zu ERNIE 4.0 bietet es eine bessere Leistungsfähigkeit." + }, + "ERNIE-Character-8K": { + "description": "Das von Baidu entwickelte Sprachmodell für vertikale Szenarien, das sich für Anwendungen wie Spiel-NPCs, Kundenservice-Dialoge und Rollenspiele eignet. Es hat einen klareren und konsistenteren Charakterstil, eine stärkere Befolgung von Anweisungen und eine bessere Inferenzleistung." + }, + "ERNIE-Lite-Pro-128K": { + "description": "Das von Baidu entwickelte leichte Sprachmodell, das hervorragende Modellleistung und Inferenzleistung kombiniert. Es bietet bessere Ergebnisse als ERNIE Lite und eignet sich für die Inferenznutzung auf AI-Beschleunigungskarten mit geringer Rechenleistung." + }, + "ERNIE-Speed-128K": { + "description": "Das neueste von Baidu im Jahr 2024 veröffentlichte hochleistungsfähige Sprachmodell, das überragende allgemeine Fähigkeiten bietet und sich als Basis-Modell für Feinabstimmungen eignet, um spezifische Szenarien besser zu bearbeiten, und bietet gleichzeitig hervorragende Inferenzleistung." + }, + "ERNIE-Speed-Pro-128K": { + "description": "Das neueste von Baidu im Jahr 2024 veröffentlichte hochleistungsfähige Sprachmodell, das überragende allgemeine Fähigkeiten bietet und bessere Ergebnisse als ERNIE Speed erzielt. Es eignet sich als Basis-Modell für Feinabstimmungen, um spezifische Szenarien besser zu bearbeiten, und bietet gleichzeitig hervorragende Inferenzleistung." + }, "Gryphe/MythoMax-L2-13b": { "description": "MythoMax-L2 (13B) ist ein innovatives Modell, das sich für Anwendungen in mehreren Bereichen und komplexe Aufgaben eignet." }, @@ -401,6 +434,9 @@ "glm-4-flash": { "description": "GLM-4-Flash ist die ideale Wahl für die Verarbeitung einfacher Aufgaben, mit der schnellsten Geschwindigkeit und dem besten Preis." }, + "glm-4-flashx": { + "description": "GLM-4-FlashX ist eine verbesserte Version von Flash mit extrem schneller Inferenzgeschwindigkeit." + }, "glm-4-long": { "description": "GLM-4-Long unterstützt extrem lange Texteingaben und eignet sich für Gedächtnisaufgaben und die Verarbeitung großer Dokumente." }, @@ -413,11 +449,11 @@ "glm-4v-plus": { "description": "GLM-4V-Plus hat die Fähigkeit, Videoinhalte und mehrere Bilder zu verstehen und eignet sich für multimodale Aufgaben." }, - "google/gemini-flash-1.5-exp": { - "description": "Gemini 1.5 Flash 0827 bietet optimierte multimodale Verarbeitungsfähigkeiten und ist für eine Vielzahl komplexer Aufgaben geeignet." + "google/gemini-flash-1.5": { + "description": "Gemini 1.5 Flash bietet optimierte multimodale Verarbeitungsfähigkeiten, die für verschiedene komplexe Aufgabenszenarien geeignet sind." }, - "google/gemini-pro-1.5-exp": { - "description": "Gemini 1.5 Pro 0827 kombiniert die neuesten Optimierungstechnologien und bietet effizientere multimodale Datenverarbeitungsfähigkeiten." + "google/gemini-pro-1.5": { + "description": "Gemini 1.5 Pro kombiniert die neuesten Optimierungstechnologien und bietet eine effizientere Verarbeitung multimodaler Daten." }, "google/gemma-2-27b-it": { "description": "Gemma 2 setzt das Designkonzept von Leichtbau und Effizienz fort." @@ -491,6 +527,33 @@ "gryphe/mythomax-l2-13b": { "description": "MythoMax l2 13B ist ein Sprachmodell, das Kreativität und Intelligenz kombiniert und mehrere führende Modelle integriert." }, + "hunyuan-code": { + "description": "Das neueste Code-Generierungsmodell von Hunyuan, das auf einem Basismodell mit 200B hochwertigen Code-Daten trainiert wurde, hat ein halbes Jahr lang mit hochwertigen SFT-Daten trainiert, das Kontextfenster auf 8K erhöht und belegt in den automatischen Bewertungsmetriken für die fünf großen Programmiersprachen Spitzenplätze; in den zehn Aspekten der umfassenden Codeaufgabenbewertung für die fünf großen Sprachen liegt die Leistung in der ersten Reihe." + }, + "hunyuan-functioncall": { + "description": "Das neueste MOE-Architektur-FunctionCall-Modell von Hunyuan, das mit hochwertigen FunctionCall-Daten trainiert wurde, hat ein Kontextfenster von 32K und führt in mehreren Bewertungsmetriken." + }, + "hunyuan-lite": { + "description": "Aufgerüstet auf eine MOE-Struktur mit einem Kontextfenster von 256k, führt es in mehreren Bewertungssets in NLP, Code, Mathematik und Industrie zahlreiche Open-Source-Modelle an." + }, + "hunyuan-pro": { + "description": "Ein MOE-32K-Modell für lange Texte mit einer Billion Parametern. Es erreicht in verschiedenen Benchmarks ein absolut führendes Niveau, hat komplexe Anweisungen und Schlussfolgerungen, verfügt über komplexe mathematische Fähigkeiten und unterstützt Funktionsaufrufe, mit Schwerpunkt auf Optimierung in den Bereichen mehrsprachige Übersetzung, Finanzrecht und Medizin." + }, + "hunyuan-role": { + "description": "Das neueste Rollenspielmodell von Hunyuan, das auf dem offiziellen feinabgestimmten Training von Hunyuan basiert, wurde mit einem Datensatz für Rollenspiel-Szenarien weiter trainiert und bietet in Rollenspiel-Szenarien bessere Grundeffekte." + }, + "hunyuan-standard": { + "description": "Verwendet eine verbesserte Routing-Strategie und mildert gleichzeitig die Probleme der Lastenverteilung und Expertenkonvergenz. Bei langen Texten erreicht der Needle-in-a-Haystack-Indikator 99,9%. MOE-32K bietet ein besseres Preis-Leistungs-Verhältnis und ermöglicht die Verarbeitung von langen Texteingaben bei ausgewogenem Effekt und Preis." + }, + "hunyuan-standard-256K": { + "description": "Verwendet eine verbesserte Routing-Strategie und mildert gleichzeitig die Probleme der Lastenverteilung und Expertenkonvergenz. Bei langen Texten erreicht der Needle-in-a-Haystack-Indikator 99,9%. MOE-256K bricht in Länge und Effektivität weiter durch und erweitert die eingabefähige Länge erheblich." + }, + "hunyuan-turbo": { + "description": "Die Vorschauversion des neuen großen Sprachmodells von Hunyuan verwendet eine neuartige hybride Expertenmodellstruktur (MoE) und bietet im Vergleich zu Hunyuan-Pro eine schnellere Inferenz und bessere Leistung." + }, + "hunyuan-vision": { + "description": "Das neueste multimodale Modell von Hunyuan unterstützt die Eingabe von Bildern und Text zur Generierung von Textinhalten." + }, "internlm/internlm2_5-20b-chat": { "description": "Das innovative Open-Source-Modell InternLM2.5 hat durch eine große Anzahl von Parametern die Dialogintelligenz erhöht." }, @@ -634,6 +697,12 @@ "meta-llama/llama-3.1-8b-instruct:free": { "description": "LLaMA 3.1 bietet Unterstützung für mehrere Sprachen und gehört zu den führenden generativen Modellen der Branche." }, + "meta-llama/llama-3.2-11b-vision-instruct": { + "description": "LLaMA 3.2 ist darauf ausgelegt, Aufgaben zu bearbeiten, die visuelle und textuelle Daten kombinieren. Es zeigt hervorragende Leistungen bei Aufgaben wie Bildbeschreibung und visuellem Fragen und Antworten und überbrückt die Kluft zwischen Sprachgenerierung und visueller Schlussfolgerung." + }, + "meta-llama/llama-3.2-90b-vision-instruct": { + "description": "LLaMA 3.2 ist darauf ausgelegt, Aufgaben zu bearbeiten, die visuelle und textuelle Daten kombinieren. Es zeigt hervorragende Leistungen bei Aufgaben wie Bildbeschreibung und visuellem Fragen und Antworten und überbrückt die Kluft zwischen Sprachgenerierung und visueller Schlussfolgerung." + }, "meta.llama3-1-405b-instruct-v1:0": { "description": "Meta Llama 3.1 405B Instruct ist das größte und leistungsstärkste Modell innerhalb des Llama 3.1 Instruct Modells. Es handelt sich um ein hochentwickeltes Modell für dialogbasierte Schlussfolgerungen und die Generierung synthetischer Daten, das auch als Grundlage für die professionelle kontinuierliche Vorab- und Feinabstimmung in bestimmten Bereichen verwendet werden kann. Die mehrsprachigen großen Sprachmodelle (LLMs) von Llama 3.1 sind eine Gruppe von vortrainierten, anweisungsoptimierten Generierungsmodellen, die in den Größen 8B, 70B und 405B (Text-Eingabe/Ausgabe) verfügbar sind. Die anweisungsoptimierten Textmodelle (8B, 70B, 405B) sind speziell für mehrsprachige Dialoganwendungen optimiert und haben in gängigen Branchenbenchmarks viele verfügbare Open-Source-Chat-Modelle übertroffen. Llama 3.1 ist für kommerzielle und Forschungszwecke in mehreren Sprachen konzipiert. Die anweisungsoptimierten Textmodelle eignen sich für assistentengleiche Chats, während die vortrainierten Modelle für verschiedene Aufgaben der natürlichen Sprachgenerierung angepasst werden können. Das Llama 3.1 Modell unterstützt auch die Nutzung seiner Ausgaben zur Verbesserung anderer Modelle, einschließlich der Generierung synthetischer Daten und der Verfeinerung. Llama 3.1 ist ein autoregressives Sprachmodell, das auf einer optimierten Transformer-Architektur basiert. Die angepasste Version verwendet überwachte Feinabstimmung (SFT) und verstärkendes Lernen mit menschlichem Feedback (RLHF), um den menschlichen Präferenzen für Hilfsbereitschaft und Sicherheit zu entsprechen." }, diff --git a/locales/de-DE/providers.json b/locales/de-DE/providers.json index d1d14a6c5c29..281219ce9b36 100644 --- a/locales/de-DE/providers.json +++ b/locales/de-DE/providers.json @@ -30,6 +30,9 @@ "groq": { "description": "Der LPU-Inferenz-Engine von Groq hat in den neuesten unabhängigen Benchmark-Tests für große Sprachmodelle (LLM) hervorragende Leistungen gezeigt und definiert mit seiner erstaunlichen Geschwindigkeit und Effizienz die Standards für KI-Lösungen neu. Groq ist ein Beispiel für sofortige Inferenzgeschwindigkeit und zeigt in cloudbasierten Bereitstellungen eine gute Leistung." }, + "hunyuan": { + "description": "Ein von Tencent entwickeltes großes Sprachmodell, das über starke Fähigkeiten zur Erstellung von Inhalten in chinesischer Sprache, logisches Denkvermögen in komplexen Kontexten und zuverlässige Fähigkeiten zur Aufgabenerfüllung verfügt." + }, "minimax": { "description": "MiniMax ist ein im Jahr 2021 gegründetes Unternehmen für allgemeine künstliche Intelligenz, das sich der gemeinsamen Schaffung von Intelligenz mit den Nutzern widmet. MiniMax hat verschiedene multimodale allgemeine große Modelle entwickelt, darunter ein Textmodell mit Billionen von Parametern, ein Sprachmodell und ein Bildmodell. Außerdem wurden Anwendungen wie Conch AI eingeführt." }, @@ -75,6 +78,9 @@ "upstage": { "description": "Upstage konzentriert sich auf die Entwicklung von KI-Modellen für verschiedene geschäftliche Anforderungen, einschließlich Solar LLM und Dokumenten-KI, mit dem Ziel, künstliche allgemeine Intelligenz (AGI) zu erreichen. Es ermöglicht die Erstellung einfacher Dialogagenten über die Chat-API und unterstützt Funktionsaufrufe, Übersetzungen, Einbettungen und spezifische Anwendungsbereiche." }, + "wenxin": { + "description": "Eine unternehmensweite, umfassende Plattform für die Entwicklung und den Service von großen Modellen und KI-nativen Anwendungen, die die vollständigsten und benutzerfreundlichsten Werkzeuge für die Entwicklung generativer KI-Modelle und den gesamten Anwendungsentwicklungsprozess bietet." + }, "zeroone": { "description": "01.AI konzentriert sich auf die künstliche Intelligenz-Technologie der AI 2.0-Ära und fördert aktiv die Innovation und Anwendung von 'Mensch + künstliche Intelligenz', indem sie leistungsstarke Modelle und fortschrittliche KI-Technologien einsetzt, um die Produktivität der Menschen zu steigern und technologische Befähigung zu erreichen." }, diff --git a/locales/en-US/error.json b/locales/en-US/error.json index 02c3ff38115c..bf66eb503d07 100644 --- a/locales/en-US/error.json +++ b/locales/en-US/error.json @@ -81,6 +81,7 @@ "PluginServerError": "Plugin server request returned an error. Please check your plugin manifest file, plugin configuration, or server implementation based on the error information below", "PluginSettingsInvalid": "This plugin needs to be correctly configured before it can be used. Please check if your configuration is correct", "ProviderBizError": "Error requesting {{provider}} service, please troubleshoot or retry based on the following information", + "QuotaLimitReached": "We apologize, but the current token usage or number of requests has reached the quota limit for this key. Please increase the quota for this key or try again later.", "StreamChunkError": "Error parsing the message chunk of the streaming request. Please check if the current API interface complies with the standard specifications, or contact your API provider for assistance.", "SubscriptionPlanLimit": "Your subscription limit has been reached, and you cannot use this feature. Please upgrade to a higher plan or purchase a resource pack to continue using it.", "UnknownChatFetchError": "Sorry, an unknown request error occurred. Please check the information below or try again." diff --git a/locales/en-US/modelProvider.json b/locales/en-US/modelProvider.json index e48d8bfa3ed7..d439754e16b6 100644 --- a/locales/en-US/modelProvider.json +++ b/locales/en-US/modelProvider.json @@ -112,6 +112,26 @@ "title": "Download specified Ollama model" } }, + "wenxin": { + "accessKey": { + "desc": "Enter the Access Key from the Baidu Qianfan platform", + "placeholder": "Qianfan Access Key", + "title": "Access Key" + }, + "checker": { + "desc": "Test if the Access Key / Secret Access is filled in correctly" + }, + "secretKey": { + "desc": "Enter the Secret Key from the Baidu Qianfan platform", + "placeholder": "Qianfan Secret Key", + "title": "Secret Key" + }, + "unlock": { + "customRegion": "Custom Service Region", + "description": "Input your Access Key / Secret Key to start the session. The application will not record your authentication configuration.", + "title": "Use Custom Wenxin Yiyan Authentication Information" + } + }, "zeroone": { "title": "01.AI Zero One Everything" }, diff --git a/locales/en-US/models.json b/locales/en-US/models.json index 00050424edad..e7413229a300 100644 --- a/locales/en-US/models.json +++ b/locales/en-US/models.json @@ -32,6 +32,39 @@ "Baichuan4": { "description": "The model is the best in the country, surpassing mainstream foreign models in Chinese tasks such as knowledge encyclopedias, long texts, and creative generation. It also boasts industry-leading multimodal capabilities, excelling in multiple authoritative evaluation benchmarks." }, + "ERNIE-3.5-128K": { + "description": "Baidu's self-developed flagship large-scale language model, covering a vast amount of Chinese and English corpus. It possesses strong general capabilities, meeting the requirements for most dialogue Q&A, creative generation, and plugin application scenarios; it supports automatic integration with Baidu's search plugin to ensure the timeliness of Q&A information." + }, + "ERNIE-3.5-8K": { + "description": "Baidu's self-developed flagship large-scale language model, covering a vast amount of Chinese and English corpus. It possesses strong general capabilities, meeting the requirements for most dialogue Q&A, creative generation, and plugin application scenarios; it supports automatic integration with Baidu's search plugin to ensure the timeliness of Q&A information." + }, + "ERNIE-3.5-8K-Preview": { + "description": "Baidu's self-developed flagship large-scale language model, covering a vast amount of Chinese and English corpus. It possesses strong general capabilities, meeting the requirements for most dialogue Q&A, creative generation, and plugin application scenarios; it supports automatic integration with Baidu's search plugin to ensure the timeliness of Q&A information." + }, + "ERNIE-4.0-8K-Latest": { + "description": "Baidu's self-developed flagship ultra-large-scale language model, which has achieved a comprehensive upgrade in model capabilities compared to ERNIE 3.5, widely applicable to complex task scenarios across various fields; supports automatic integration with Baidu search plugins to ensure the timeliness of Q&A information." + }, + "ERNIE-4.0-8K-Preview": { + "description": "Baidu's self-developed flagship ultra-large-scale language model, which has achieved a comprehensive upgrade in model capabilities compared to ERNIE 3.5, widely applicable to complex task scenarios across various fields; supports automatic integration with Baidu search plugins to ensure the timeliness of Q&A information." + }, + "ERNIE-4.0-Turbo-8K": { + "description": "Baidu's self-developed flagship ultra-large-scale language model, demonstrating excellent overall performance, widely applicable to complex task scenarios across various fields; supports automatic integration with Baidu search plugins to ensure the timeliness of Q&A information. It outperforms ERNIE 4.0 in performance." + }, + "ERNIE-4.0-Turbo-8K-Preview": { + "description": "Baidu's self-developed flagship ultra-large-scale language model, demonstrating excellent overall performance, widely applicable to complex task scenarios across various fields; supports automatic integration with Baidu search plugins to ensure the timeliness of Q&A information. It outperforms ERNIE 4.0 in performance." + }, + "ERNIE-Character-8K": { + "description": "Baidu's self-developed vertical scene large language model, suitable for applications such as game NPCs, customer service dialogues, and role-playing conversations, featuring more distinct and consistent character styles, stronger adherence to instructions, and superior inference performance." + }, + "ERNIE-Lite-Pro-128K": { + "description": "Baidu's self-developed lightweight large language model, balancing excellent model performance with inference efficiency, offering better results than ERNIE Lite, suitable for inference on low-power AI acceleration cards." + }, + "ERNIE-Speed-128K": { + "description": "Baidu's latest self-developed high-performance large language model released in 2024, with outstanding general capabilities, suitable as a base model for fine-tuning, effectively addressing specific scenario issues while also exhibiting excellent inference performance." + }, + "ERNIE-Speed-Pro-128K": { + "description": "Baidu's latest self-developed high-performance large language model released in 2024, with outstanding general capabilities, providing better results than ERNIE Speed, suitable as a base model for fine-tuning, effectively addressing specific scenario issues while also exhibiting excellent inference performance." + }, "Gryphe/MythoMax-L2-13b": { "description": "MythoMax-L2 (13B) is an innovative model suitable for multi-domain applications and complex tasks." }, @@ -401,6 +434,9 @@ "glm-4-flash": { "description": "GLM-4-Flash is the ideal choice for handling simple tasks, being the fastest and most cost-effective." }, + "glm-4-flashx": { + "description": "GLM-4-FlashX is an enhanced version of Flash, featuring ultra-fast inference speed." + }, "glm-4-long": { "description": "GLM-4-Long supports ultra-long text inputs, suitable for memory-based tasks and large-scale document processing." }, @@ -413,11 +449,11 @@ "glm-4v-plus": { "description": "GLM-4V-Plus has the ability to understand video content and multiple images, suitable for multimodal tasks." }, - "google/gemini-flash-1.5-exp": { - "description": "Gemini 1.5 Flash 0827 provides optimized multimodal processing capabilities, suitable for various complex task scenarios." + "google/gemini-flash-1.5": { + "description": "Gemini 1.5 Flash offers optimized multimodal processing capabilities, suitable for various complex task scenarios." }, - "google/gemini-pro-1.5-exp": { - "description": "Gemini 1.5 Pro 0827 combines the latest optimization technologies to deliver more efficient multimodal data processing capabilities." + "google/gemini-pro-1.5": { + "description": "Gemini 1.5 Pro combines the latest optimization technologies to deliver more efficient multimodal data processing capabilities." }, "google/gemma-2-27b-it": { "description": "Gemma 2 continues the design philosophy of being lightweight and efficient." @@ -491,6 +527,33 @@ "gryphe/mythomax-l2-13b": { "description": "MythoMax l2 13B is a language model that combines creativity and intelligence by merging multiple top models." }, + "hunyuan-code": { + "description": "The latest code generation model from Hunyuan, trained on a base model with 200B high-quality code data, iteratively trained for six months with high-quality SFT data, increasing the context window length to 8K. It ranks among the top in automatic evaluation metrics for code generation across five major programming languages, and performs in the first tier for comprehensive human quality assessments across ten aspects of coding tasks." + }, + "hunyuan-functioncall": { + "description": "The latest MOE architecture FunctionCall model from Hunyuan, trained on high-quality FunctionCall data, with a context window of 32K, leading in multiple dimensions of evaluation metrics." + }, + "hunyuan-lite": { + "description": "Upgraded to a MOE structure with a context window of 256k, leading many open-source models in various NLP, coding, mathematics, and industry benchmarks." + }, + "hunyuan-pro": { + "description": "A trillion-parameter scale MOE-32K long text model. Achieves absolute leading levels across various benchmarks, capable of handling complex instructions and reasoning, with advanced mathematical abilities, supporting function calls, and optimized for applications in multilingual translation, finance, law, and healthcare." + }, + "hunyuan-role": { + "description": "The latest role-playing model from Hunyuan, fine-tuned and trained by Hunyuan's official team, based on the Hunyuan model combined with role-playing scenario datasets for enhanced foundational performance in role-playing contexts." + }, + "hunyuan-standard": { + "description": "Utilizes a superior routing strategy while alleviating issues of load balancing and expert convergence. For long texts, the needle-in-a-haystack metric reaches 99.9%. MOE-32K offers a relatively higher cost-performance ratio, balancing effectiveness and price while enabling processing of long text inputs." + }, + "hunyuan-standard-256K": { + "description": "Utilizes a superior routing strategy while alleviating issues of load balancing and expert convergence. For long texts, the needle-in-a-haystack metric reaches 99.9%. MOE-256K further breaks through in length and effectiveness, greatly expanding the input length capacity." + }, + "hunyuan-turbo": { + "description": "The preview version of the next-generation Hunyuan large language model, featuring a brand-new mixed expert model (MoE) structure, which offers faster inference efficiency and stronger performance compared to Hunyuan Pro." + }, + "hunyuan-vision": { + "description": "The latest multimodal model from Hunyuan, supporting image + text input to generate textual content." + }, "internlm/internlm2_5-20b-chat": { "description": "The innovative open-source model InternLM2.5 enhances dialogue intelligence through a large number of parameters." }, @@ -634,6 +697,12 @@ "meta-llama/llama-3.1-8b-instruct:free": { "description": "LLaMA 3.1 offers multilingual support and is one of the industry's leading generative models." }, + "meta-llama/llama-3.2-11b-vision-instruct": { + "description": "LLaMA 3.2 is designed to handle tasks that combine visual and textual data. It excels in tasks such as image description and visual question answering, bridging the gap between language generation and visual reasoning." + }, + "meta-llama/llama-3.2-90b-vision-instruct": { + "description": "LLaMA 3.2 is designed to handle tasks that combine visual and textual data. It excels in tasks such as image description and visual question answering, bridging the gap between language generation and visual reasoning." + }, "meta.llama3-1-405b-instruct-v1:0": { "description": "Meta Llama 3.1 405B Instruct is the largest and most powerful model in the Llama 3.1 Instruct series. It is a highly advanced conversational reasoning and synthetic data generation model, which can also serve as a foundation for specialized continuous pre-training or fine-tuning in specific domains. The multilingual large language models (LLMs) provided by Llama 3.1 are a set of pre-trained, instruction-tuned generative models, including sizes of 8B, 70B, and 405B (text input/output). The instruction-tuned text models (8B, 70B, 405B) are optimized for multilingual conversational use cases and have outperformed many available open-source chat models in common industry benchmarks. Llama 3.1 is designed for commercial and research purposes across multiple languages. The instruction-tuned text models are suitable for assistant-like chat, while the pre-trained models can adapt to various natural language generation tasks. The Llama 3.1 models also support improving other models using their outputs, including synthetic data generation and refinement. Llama 3.1 is an autoregressive language model built using an optimized transformer architecture. The tuned versions utilize supervised fine-tuning (SFT) and reinforcement learning with human feedback (RLHF) to align with human preferences for helpfulness and safety." }, diff --git a/locales/en-US/providers.json b/locales/en-US/providers.json index e1976ae0ad73..c411d98cc848 100644 --- a/locales/en-US/providers.json +++ b/locales/en-US/providers.json @@ -30,6 +30,9 @@ "groq": { "description": "Groq's LPU inference engine has excelled in the latest independent large language model (LLM) benchmarks, redefining the standards for AI solutions with its remarkable speed and efficiency. Groq represents instant inference speed, demonstrating strong performance in cloud-based deployments." }, + "hunyuan": { + "description": "A large language model developed by Tencent, equipped with powerful Chinese creative capabilities, logical reasoning abilities in complex contexts, and reliable task execution skills." + }, "minimax": { "description": "MiniMax is a general artificial intelligence technology company established in 2021, dedicated to co-creating intelligence with users. MiniMax has independently developed general large models of different modalities, including trillion-parameter MoE text models, voice models, and image models, and has launched applications such as Conch AI." }, @@ -75,6 +78,9 @@ "upstage": { "description": "Upstage focuses on developing AI models for various business needs, including Solar LLM and document AI, aiming to achieve artificial general intelligence (AGI) for work. It allows for the creation of simple conversational agents through Chat API and supports functional calling, translation, embedding, and domain-specific applications." }, + "wenxin": { + "description": "An enterprise-level one-stop platform for large model and AI-native application development and services, providing the most comprehensive and user-friendly toolchain for the entire process of generative artificial intelligence model development and application development." + }, "zeroone": { "description": "01.AI focuses on AI 2.0 era technologies, vigorously promoting the innovation and application of 'human + artificial intelligence', using powerful models and advanced AI technologies to enhance human productivity and achieve technological empowerment." }, diff --git a/locales/es-ES/error.json b/locales/es-ES/error.json index 9aa7424c6371..fa97013e1cd7 100644 --- a/locales/es-ES/error.json +++ b/locales/es-ES/error.json @@ -81,6 +81,7 @@ "PluginServerError": "Error al recibir la respuesta del servidor del complemento. Verifique el archivo de descripción del complemento, la configuración del complemento o la implementación del servidor según la información de error a continuación", "PluginSettingsInvalid": "Este complemento necesita una configuración correcta antes de poder usarse. Verifique si su configuración es correcta", "ProviderBizError": "Se produjo un error al solicitar el servicio de {{provider}}, por favor, revise la siguiente información o inténtelo de nuevo", + "QuotaLimitReached": "Lo sentimos, el uso actual de tokens o el número de solicitudes ha alcanzado el límite de cuota de esta clave. Por favor, aumenta la cuota de esta clave o intenta de nuevo más tarde.", "StreamChunkError": "Error de análisis del bloque de mensajes de la solicitud en streaming. Por favor, verifica si la API actual cumple con las normas estándar o contacta a tu proveedor de API para más información.", "SubscriptionPlanLimit": "Has alcanzado el límite de tu suscripción y no puedes utilizar esta función. Por favor, actualiza a un plan superior o compra un paquete de recursos para seguir utilizando.", "UnknownChatFetchError": "Lo sentimos, se ha producido un error desconocido en la solicitud. Por favor, verifica la información a continuación o intenta de nuevo." diff --git a/locales/es-ES/modelProvider.json b/locales/es-ES/modelProvider.json index cadb4e280ab7..1acf7c6e8cf7 100644 --- a/locales/es-ES/modelProvider.json +++ b/locales/es-ES/modelProvider.json @@ -112,6 +112,26 @@ "title": "Download specified Ollama model" } }, + "wenxin": { + "accessKey": { + "desc": "Introduce la Access Key de la plataforma Qianfan de Baidu", + "placeholder": "Access Key de Qianfan", + "title": "Access Key" + }, + "checker": { + "desc": "Verifica si la AccessKey / SecretAccess está correctamente ingresada" + }, + "secretKey": { + "desc": "Introduce la Secret Key de la plataforma Qianfan de Baidu", + "placeholder": "Secret Key de Qianfan", + "title": "Secret Key" + }, + "unlock": { + "customRegion": "Región de servicio personalizada", + "description": "Introduce tu AccessKey / SecretKey para comenzar la sesión. La aplicación no registrará tu configuración de autenticación", + "title": "Usar información de autenticación personalizada de Wenxin Yiyan" + } + }, "zeroone": { "title": "01.AI Cero Uno Todo" }, diff --git a/locales/es-ES/models.json b/locales/es-ES/models.json index f8ca81352aac..a36e65bde9fc 100644 --- a/locales/es-ES/models.json +++ b/locales/es-ES/models.json @@ -32,6 +32,39 @@ "Baichuan4": { "description": "El modelo tiene la mejor capacidad en el país, superando a los modelos principales extranjeros en tareas en chino como enciclopedias, textos largos y creación generativa. También cuenta con capacidades multimodales líderes en la industria, destacándose en múltiples evaluaciones de referencia autorizadas." }, + "ERNIE-3.5-128K": { + "description": "Modelo de lenguaje a gran escala de primera línea desarrollado por Baidu, que abarca una vasta cantidad de corpus en chino y en inglés, con potentes capacidades generales que pueden satisfacer la mayoría de los requisitos de preguntas y respuestas en diálogos, generación de contenido y aplicaciones de plugins; soporta la integración automática con el plugin de búsqueda de Baidu, garantizando la actualidad de la información en las respuestas." + }, + "ERNIE-3.5-8K": { + "description": "Modelo de lenguaje a gran escala de primera línea desarrollado por Baidu, que abarca una vasta cantidad de corpus en chino y en inglés, con potentes capacidades generales que pueden satisfacer la mayoría de los requisitos de preguntas y respuestas en diálogos, generación de contenido y aplicaciones de plugins; soporta la integración automática con el plugin de búsqueda de Baidu, garantizando la actualidad de la información en las respuestas." + }, + "ERNIE-3.5-8K-Preview": { + "description": "Modelo de lenguaje a gran escala de primera línea desarrollado por Baidu, que abarca una vasta cantidad de corpus en chino y en inglés, con potentes capacidades generales que pueden satisfacer la mayoría de los requisitos de preguntas y respuestas en diálogos, generación de contenido y aplicaciones de plugins; soporta la integración automática con el plugin de búsqueda de Baidu, garantizando la actualidad de la información en las respuestas." + }, + "ERNIE-4.0-8K-Latest": { + "description": "Modelo de lenguaje a gran escala ultra avanzado desarrollado por Baidu, que ha logrado una actualización completa de las capacidades del modelo en comparación con ERNIE 3.5, siendo ampliamente aplicable a escenarios de tareas complejas en diversos campos; soporta la integración automática con el plugin de búsqueda de Baidu, garantizando la actualidad de la información en las respuestas." + }, + "ERNIE-4.0-8K-Preview": { + "description": "Modelo de lenguaje a gran escala ultra avanzado desarrollado por Baidu, que ha logrado una actualización completa de las capacidades del modelo en comparación con ERNIE 3.5, siendo ampliamente aplicable a escenarios de tareas complejas en diversos campos; soporta la integración automática con el plugin de búsqueda de Baidu, garantizando la actualidad de la información en las respuestas." + }, + "ERNIE-4.0-Turbo-8K": { + "description": "Modelo de lenguaje a gran escala ultra avanzado desarrollado por Baidu, con un rendimiento excepcional en efectos generales, siendo ampliamente aplicable a escenarios de tareas complejas en diversos campos; soporta la integración automática con el plugin de búsqueda de Baidu, garantizando la actualidad de la información en las respuestas. En comparación con ERNIE 4.0, ofrece un rendimiento superior." + }, + "ERNIE-4.0-Turbo-8K-Preview": { + "description": "Modelo de lenguaje a gran escala ultra avanzado desarrollado por Baidu, con un rendimiento excepcional en efectos generales, siendo ampliamente aplicable a escenarios de tareas complejas en diversos campos; soporta la integración automática con el plugin de búsqueda de Baidu, garantizando la actualidad de la información en las respuestas. En comparación con ERNIE 4.0, ofrece un rendimiento superior." + }, + "ERNIE-Character-8K": { + "description": "Modelo de lenguaje vertical desarrollado por Baidu, adecuado para aplicaciones como NPC en juegos, diálogos de servicio al cliente, y juegos de rol conversacionales, con un estilo de personaje más distintivo y coherente, y una mayor capacidad de seguir instrucciones, además de un rendimiento de inferencia superior." + }, + "ERNIE-Lite-Pro-128K": { + "description": "Modelo de lenguaje ligero desarrollado por Baidu, que combina un excelente rendimiento del modelo con una alta eficiencia de inferencia, superando a ERNIE Lite, adecuado para su uso en tarjetas de aceleración de IA de bajo consumo." + }, + "ERNIE-Speed-128K": { + "description": "Modelo de lenguaje de alto rendimiento desarrollado por Baidu, lanzado en 2024, con capacidades generales excepcionales, adecuado como modelo base para ajustes finos, manejando mejor problemas en escenarios específicos, y con un rendimiento de inferencia excelente." + }, + "ERNIE-Speed-Pro-128K": { + "description": "Modelo de lenguaje de alto rendimiento desarrollado por Baidu, lanzado en 2024, con capacidades generales excepcionales, superando a ERNIE Speed, adecuado como modelo base para ajustes finos, manejando mejor problemas en escenarios específicos, y con un rendimiento de inferencia excelente." + }, "Gryphe/MythoMax-L2-13b": { "description": "MythoMax-L2 (13B) es un modelo innovador, adecuado para aplicaciones en múltiples campos y tareas complejas." }, @@ -401,6 +434,9 @@ "glm-4-flash": { "description": "GLM-4-Flash es la opción ideal para tareas simples, con la velocidad más rápida y el precio más bajo." }, + "glm-4-flashx": { + "description": "GLM-4-FlashX es una versión mejorada de Flash, con una velocidad de inferencia ultrarrápida." + }, "glm-4-long": { "description": "GLM-4-Long admite entradas de texto extremadamente largas, adecuado para tareas de memoria y procesamiento de documentos a gran escala." }, @@ -413,11 +449,11 @@ "glm-4v-plus": { "description": "GLM-4V-Plus tiene la capacidad de entender contenido de video y múltiples imágenes, adecuado para tareas multimodales." }, - "google/gemini-flash-1.5-exp": { - "description": "Gemini 1.5 Flash 0827 ofrece capacidades de procesamiento multimodal optimizadas, adecuadas para una variedad de escenarios de tareas complejas." + "google/gemini-flash-1.5": { + "description": "Gemini 1.5 Flash ofrece capacidades de procesamiento multimodal optimizadas, adecuadas para una variedad de escenarios de tareas complejas." }, - "google/gemini-pro-1.5-exp": { - "description": "Gemini 1.5 Pro 0827 combina las últimas tecnologías de optimización, ofreciendo una capacidad de procesamiento de datos multimodal más eficiente." + "google/gemini-pro-1.5": { + "description": "Gemini 1.5 Pro combina las últimas tecnologías de optimización, proporcionando una capacidad de procesamiento de datos multimodal más eficiente." }, "google/gemma-2-27b-it": { "description": "Gemma 2 continúa con el concepto de diseño ligero y eficiente." @@ -491,6 +527,33 @@ "gryphe/mythomax-l2-13b": { "description": "MythoMax l2 13B es un modelo de lenguaje que combina creatividad e inteligencia, fusionando múltiples modelos de vanguardia." }, + "hunyuan-code": { + "description": "El último modelo de generación de código de Hunyuan, entrenado con 200B de datos de código de alta calidad, con medio año de entrenamiento de datos SFT de alta calidad, aumentando la longitud de la ventana de contexto a 8K, destacándose en métricas automáticas de generación de código en cinco lenguajes; en evaluaciones de calidad humana de tareas de código en diez aspectos en cinco lenguajes, su rendimiento se encuentra en la primera categoría." + }, + "hunyuan-functioncall": { + "description": "El último modelo FunctionCall de Hunyuan con arquitectura MOE, entrenado con datos de FunctionCall de alta calidad, con una ventana de contexto de 32K, liderando en múltiples dimensiones de métricas de evaluación." + }, + "hunyuan-lite": { + "description": "Actualizado a una estructura MOE, con una ventana de contexto de 256k, lidera en múltiples conjuntos de evaluación en NLP, código, matemáticas, industria y más, superando a muchos modelos de código abierto." + }, + "hunyuan-pro": { + "description": "Modelo de texto largo MOE-32K con un tamaño de parámetros de billones. Alcanzando niveles de liderazgo absoluto en varios benchmarks, con capacidades complejas de instrucciones y razonamiento, habilidades matemáticas complejas, soporte para llamadas a funciones, optimizado para aplicaciones en traducción multilingüe, finanzas, derecho y medicina." + }, + "hunyuan-role": { + "description": "El último modelo de rol de Hunyuan, un modelo de rol ajustado y entrenado oficialmente por Hunyuan, que se basa en el modelo Hunyuan y se entrena con un conjunto de datos de escenarios de rol, logrando un mejor rendimiento en escenarios de rol." + }, + "hunyuan-standard": { + "description": "Adopta una estrategia de enrutamiento mejorada, al tiempo que mitiga problemas de equilibrio de carga y convergencia de expertos. En el caso de textos largos, el índice de precisión alcanza el 99.9%. MOE-32K ofrece una mejor relación calidad-precio, equilibrando efectividad y costo, permitiendo el procesamiento de entradas de texto largo." + }, + "hunyuan-standard-256K": { + "description": "Adopta una estrategia de enrutamiento mejorada, al tiempo que mitiga problemas de equilibrio de carga y convergencia de expertos. En el caso de textos largos, el índice de precisión alcanza el 99.9%. MOE-256K rompe barreras en longitud y efectividad, ampliando enormemente la longitud de entrada permitida." + }, + "hunyuan-turbo": { + "description": "Versión preliminar de la nueva generación del modelo de lenguaje de Hunyuan, que utiliza una nueva estructura de modelo de expertos mixtos (MoE), con una eficiencia de inferencia más rápida y un rendimiento más fuerte en comparación con Hunyuan-Pro." + }, + "hunyuan-vision": { + "description": "El último modelo multimodal de Hunyuan, que admite la entrada de imágenes y texto para generar contenido textual." + }, "internlm/internlm2_5-20b-chat": { "description": "El innovador modelo de código abierto InternLM2.5 mejora la inteligencia del diálogo mediante un gran número de parámetros." }, @@ -634,6 +697,12 @@ "meta-llama/llama-3.1-8b-instruct:free": { "description": "LLaMA 3.1 ofrece soporte multilingüe y es uno de los modelos generativos más avanzados de la industria." }, + "meta-llama/llama-3.2-11b-vision-instruct": { + "description": "LLaMA 3.2 está diseñado para manejar tareas que combinan datos visuales y textuales. Destaca en tareas como la descripción de imágenes y preguntas visuales, superando la brecha entre la generación de lenguaje y el razonamiento visual." + }, + "meta-llama/llama-3.2-90b-vision-instruct": { + "description": "LLaMA 3.2 está diseñado para manejar tareas que combinan datos visuales y textuales. Destaca en tareas como la descripción de imágenes y preguntas visuales, superando la brecha entre la generación de lenguaje y el razonamiento visual." + }, "meta.llama3-1-405b-instruct-v1:0": { "description": "Meta Llama 3.1 405B Instruct es el modelo más grande y potente de la serie Llama 3.1 Instruct, un modelo de generación de datos de diálogo y razonamiento altamente avanzado, que también puede servir como base para un preentrenamiento o ajuste fino especializado en dominios específicos. Los modelos de lenguaje de gran tamaño (LLMs) multilingües que ofrece Llama 3.1 son un conjunto de modelos generativos preentrenados y ajustados por instrucciones, que incluyen tamaños de 8B, 70B y 405B (entrada/salida de texto). Los modelos de texto ajustados por instrucciones de Llama 3.1 (8B, 70B, 405B) están optimizados para casos de uso de diálogo multilingüe y superan a muchos modelos de chat de código abierto disponibles en pruebas de referencia de la industria. Llama 3.1 está diseñado para usos comerciales y de investigación en múltiples idiomas. Los modelos de texto ajustados por instrucciones son adecuados para chats similares a asistentes, mientras que los modelos preentrenados pueden adaptarse a diversas tareas de generación de lenguaje natural. El modelo Llama 3.1 también admite el uso de su salida para mejorar otros modelos, incluida la generación de datos sintéticos y el refinamiento. Llama 3.1 es un modelo de lenguaje autorregresivo que utiliza una arquitectura de transformador optimizada. Las versiones ajustadas utilizan ajuste fino supervisado (SFT) y aprendizaje por refuerzo con retroalimentación humana (RLHF) para alinearse con las preferencias humanas de ayuda y seguridad." }, diff --git a/locales/es-ES/providers.json b/locales/es-ES/providers.json index 37a5e6d2d856..3b3a6eadec14 100644 --- a/locales/es-ES/providers.json +++ b/locales/es-ES/providers.json @@ -30,6 +30,9 @@ "groq": { "description": "El motor de inferencia LPU de Groq ha demostrado un rendimiento excepcional en las pruebas de referencia de modelos de lenguaje de gran tamaño (LLM), redefiniendo los estándares de soluciones de IA con su asombrosa velocidad y eficiencia. Groq es un referente en velocidad de inferencia instantánea, mostrando un buen rendimiento en implementaciones basadas en la nube." }, + "hunyuan": { + "description": "Un modelo de lenguaje desarrollado por Tencent, que posee una poderosa capacidad de creación en chino, habilidades de razonamiento lógico en contextos complejos y una capacidad confiable para ejecutar tareas." + }, "minimax": { "description": "MiniMax es una empresa de tecnología de inteligencia artificial general fundada en 2021, dedicada a co-crear inteligencia con los usuarios. MiniMax ha desarrollado de forma independiente modelos de gran tamaño de diferentes modalidades, que incluyen un modelo de texto MoE de un billón de parámetros, un modelo de voz y un modelo de imagen. También ha lanzado aplicaciones como Conch AI." }, @@ -75,6 +78,9 @@ "upstage": { "description": "Upstage se centra en desarrollar modelos de IA para diversas necesidades comerciales, incluidos Solar LLM y Document AI, con el objetivo de lograr una inteligencia general artificial (AGI) que trabaje para las personas. Crea agentes de diálogo simples a través de la API de Chat y admite llamadas de funciones, traducción, incrustaciones y aplicaciones de dominio específico." }, + "wenxin": { + "description": "Plataforma de desarrollo y servicios de modelos grandes y aplicaciones nativas de IA de nivel empresarial, que ofrece la cadena de herramientas más completa y fácil de usar para el desarrollo de modelos de inteligencia artificial generativa y el desarrollo de aplicaciones en todo el proceso." + }, "zeroone": { "description": "01.AI se centra en la tecnología de inteligencia artificial de la era 2.0, promoviendo enérgicamente la innovación y aplicación de 'humano + inteligencia artificial', utilizando modelos extremadamente potentes y tecnologías de IA avanzadas para mejorar la productividad humana y lograr el empoderamiento tecnológico." }, diff --git a/locales/fr-FR/error.json b/locales/fr-FR/error.json index 5602d68c1508..26ce0a3204cf 100644 --- a/locales/fr-FR/error.json +++ b/locales/fr-FR/error.json @@ -81,6 +81,7 @@ "PluginServerError": "Erreur de réponse du serveur du plugin. Veuillez vérifier le fichier de description du plugin, la configuration du plugin ou la mise en œuvre côté serveur en fonction des informations d'erreur ci-dessous", "PluginSettingsInvalid": "Ce plugin doit être correctement configuré avant de pouvoir être utilisé. Veuillez vérifier votre configuration", "ProviderBizError": "Erreur de service {{provider}}. Veuillez vérifier les informations suivantes ou réessayer.", + "QuotaLimitReached": "Désolé, l'utilisation actuelle des tokens ou le nombre de requêtes a atteint la limite de quota de cette clé. Veuillez augmenter le quota de cette clé ou réessayer plus tard.", "StreamChunkError": "Erreur de parsing du bloc de message de la requête en streaming. Veuillez vérifier si l'API actuelle respecte les normes ou contacter votre fournisseur d'API pour des conseils.", "SubscriptionPlanLimit": "Vous avez atteint votre limite d'abonnement et ne pouvez pas utiliser cette fonction. Veuillez passer à un plan supérieur ou acheter un pack de ressources pour continuer à l'utiliser.", "UnknownChatFetchError": "Désolé, une erreur de requête inconnue s'est produite. Veuillez vérifier les informations ci-dessous ou réessayer." diff --git a/locales/fr-FR/modelProvider.json b/locales/fr-FR/modelProvider.json index 87e10457ef40..ad44269740b5 100644 --- a/locales/fr-FR/modelProvider.json +++ b/locales/fr-FR/modelProvider.json @@ -112,6 +112,26 @@ "title": "Download specified Ollama model" } }, + "wenxin": { + "accessKey": { + "desc": "Entrez la clé d'accès de la plateforme Qianfan de Baidu", + "placeholder": "Clé d'accès Qianfan", + "title": "Clé d'accès" + }, + "checker": { + "desc": "Vérifiez si la clé d'accès / SecretAccess est correctement remplie" + }, + "secretKey": { + "desc": "Entrez la clé secrète de la plateforme Qianfan de Baidu", + "placeholder": "Clé secrète Qianfan", + "title": "Clé secrète" + }, + "unlock": { + "customRegion": "Région de service personnalisée", + "description": "Entrez votre AccessKey / SecretKey pour commencer la session. L'application ne conservera pas votre configuration d'authentification", + "title": "Utiliser les informations d'authentification personnalisées de Wenxin Yiyan" + } + }, "zeroone": { "title": "01.AI Zéro Un Tout" }, diff --git a/locales/fr-FR/models.json b/locales/fr-FR/models.json index 0b30182b8b7f..6a7d0e2bae9e 100644 --- a/locales/fr-FR/models.json +++ b/locales/fr-FR/models.json @@ -32,6 +32,39 @@ "Baichuan4": { "description": "Le modèle est le meilleur en Chine, surpassant les modèles étrangers dans des tâches en chinois telles que l'encyclopédie, les longs textes et la création. Il possède également des capacités multimodales de pointe, avec d'excellentes performances dans plusieurs évaluations de référence." }, + "ERNIE-3.5-128K": { + "description": "Modèle de langage à grande échelle de pointe développé par Baidu, couvrant une vaste quantité de corpus en chinois et en anglais, avec de puissantes capacités générales, capable de répondre à la plupart des exigences en matière de dialogue, de questions-réponses, de création de contenu et d'applications de plugins ; prend en charge l'intégration automatique avec le plugin de recherche Baidu, garantissant la pertinence des informations de réponse." + }, + "ERNIE-3.5-8K": { + "description": "Modèle de langage à grande échelle de pointe développé par Baidu, couvrant une vaste quantité de corpus en chinois et en anglais, avec de puissantes capacités générales, capable de répondre à la plupart des exigences en matière de dialogue, de questions-réponses, de création de contenu et d'applications de plugins ; prend en charge l'intégration automatique avec le plugin de recherche Baidu, garantissant la pertinence des informations de réponse." + }, + "ERNIE-3.5-8K-Preview": { + "description": "Modèle de langage à grande échelle de pointe développé par Baidu, couvrant une vaste quantité de corpus en chinois et en anglais, avec de puissantes capacités générales, capable de répondre à la plupart des exigences en matière de dialogue, de questions-réponses, de création de contenu et d'applications de plugins ; prend en charge l'intégration automatique avec le plugin de recherche Baidu, garantissant la pertinence des informations de réponse." + }, + "ERNIE-4.0-8K-Latest": { + "description": "Modèle de langage ultra-large de premier plan développé par Baidu, ayant réalisé une mise à niveau complète des capacités par rapport à ERNIE 3.5, largement applicable à des scénarios de tâches complexes dans divers domaines ; prend en charge l'intégration automatique avec le plugin de recherche Baidu, garantissant l'actualité des informations de réponse." + }, + "ERNIE-4.0-8K-Preview": { + "description": "Modèle de langage ultra-large de premier plan développé par Baidu, ayant réalisé une mise à niveau complète des capacités par rapport à ERNIE 3.5, largement applicable à des scénarios de tâches complexes dans divers domaines ; prend en charge l'intégration automatique avec le plugin de recherche Baidu, garantissant l'actualité des informations de réponse." + }, + "ERNIE-4.0-Turbo-8K": { + "description": "Modèle de langage ultra-large de premier plan développé par Baidu, offrant d'excellentes performances globales, largement applicable à des scénarios de tâches complexes dans divers domaines ; prend en charge l'intégration automatique avec le plugin de recherche Baidu, garantissant l'actualité des informations de réponse. Par rapport à ERNIE 4.0, il offre de meilleures performances." + }, + "ERNIE-4.0-Turbo-8K-Preview": { + "description": "Modèle de langage ultra-large de premier plan développé par Baidu, offrant d'excellentes performances globales, largement applicable à des scénarios de tâches complexes dans divers domaines ; prend en charge l'intégration automatique avec le plugin de recherche Baidu, garantissant l'actualité des informations de réponse. Par rapport à ERNIE 4.0, il offre de meilleures performances." + }, + "ERNIE-Character-8K": { + "description": "Modèle de langage pour scénarios verticaux développé par Baidu, adapté aux applications telles que les NPC de jeux, les dialogues de service client, et les jeux de rôle, avec des styles de personnages plus distincts et cohérents, une meilleure capacité à suivre les instructions et des performances d'inférence supérieures." + }, + "ERNIE-Lite-Pro-128K": { + "description": "Modèle de langage léger développé par Baidu, alliant d'excellentes performances du modèle et efficacité d'inférence, offrant de meilleures performances que ERNIE Lite, adapté à l'inférence sur des cartes d'accélération AI à faible puissance de calcul." + }, + "ERNIE-Speed-128K": { + "description": "Modèle de langage haute performance développé par Baidu, publié en 2024, avec d'excellentes capacités générales, adapté comme modèle de base pour un ajustement fin, permettant de mieux traiter les problèmes de scénarios spécifiques, tout en offrant d'excellentes performances d'inférence." + }, + "ERNIE-Speed-Pro-128K": { + "description": "Modèle de langage haute performance développé par Baidu, publié en 2024, avec d'excellentes capacités générales, offrant de meilleures performances que ERNIE Speed, adapté comme modèle de base pour un ajustement fin, permettant de mieux traiter les problèmes de scénarios spécifiques, tout en offrant d'excellentes performances d'inférence." + }, "Gryphe/MythoMax-L2-13b": { "description": "MythoMax-L2 (13B) est un modèle innovant, adapté à des applications dans plusieurs domaines et à des tâches complexes." }, @@ -401,6 +434,9 @@ "glm-4-flash": { "description": "GLM-4-Flash est le choix idéal pour traiter des tâches simples, avec la vitesse la plus rapide et le prix le plus avantageux." }, + "glm-4-flashx": { + "description": "GLM-4-FlashX est une version améliorée de Flash, offrant une vitesse d'inférence ultra-rapide." + }, "glm-4-long": { "description": "GLM-4-Long prend en charge des entrées de texte ultra-longues, adapté aux tâches de mémoire et au traitement de documents à grande échelle." }, @@ -413,11 +449,11 @@ "glm-4v-plus": { "description": "GLM-4V-Plus possède la capacité de comprendre le contenu vidéo et plusieurs images, adapté aux tâches multimodales." }, - "google/gemini-flash-1.5-exp": { - "description": "Gemini 1.5 Flash 0827 offre des capacités de traitement multimodal optimisées, adaptées à divers scénarios de tâches complexes." + "google/gemini-flash-1.5": { + "description": "Gemini 1.5 Flash propose des capacités de traitement multimodal optimisées, adaptées à divers scénarios de tâches complexes." }, - "google/gemini-pro-1.5-exp": { - "description": "Gemini 1.5 Pro 0827 combine les dernières technologies d'optimisation pour offrir des capacités de traitement de données multimodales plus efficaces." + "google/gemini-pro-1.5": { + "description": "Gemini 1.5 Pro combine les dernières technologies d'optimisation pour offrir une capacité de traitement de données multimodales plus efficace." }, "google/gemma-2-27b-it": { "description": "Gemma 2 poursuit le concept de conception légère et efficace." @@ -491,6 +527,33 @@ "gryphe/mythomax-l2-13b": { "description": "MythoMax l2 13B est un modèle linguistique combinant créativité et intelligence, intégrant plusieurs modèles de pointe." }, + "hunyuan-code": { + "description": "Dernier modèle de génération de code Hunyuan, formé sur un modèle de base avec 200B de données de code de haute qualité, entraîné pendant six mois avec des données SFT de haute qualité, avec une longueur de fenêtre contextuelle augmentée à 8K, se classant parmi les meilleurs sur les indicateurs d'évaluation automatique de génération de code dans cinq langages ; en première ligne des évaluations de qualité humaine sur dix aspects de tâches de code dans cinq langages." + }, + "hunyuan-functioncall": { + "description": "Dernier modèle FunctionCall de l'architecture MOE Hunyuan, formé sur des données FunctionCall de haute qualité, avec une fenêtre contextuelle atteignant 32K, se classant parmi les meilleurs sur plusieurs dimensions d'évaluation." + }, + "hunyuan-lite": { + "description": "Mise à niveau vers une structure MOE, avec une fenêtre contextuelle de 256k, en tête de nombreux modèles open source dans les évaluations NLP, code, mathématiques, industrie, etc." + }, + "hunyuan-pro": { + "description": "Modèle de long texte MOE-32K avec un milliard de paramètres. Atteint un niveau de performance absolument supérieur sur divers benchmarks, capable de traiter des instructions complexes et de raisonner, avec des capacités mathématiques avancées, prenant en charge les appels de fonction, optimisé pour des domaines tels que la traduction multilingue, le droit financier et médical." + }, + "hunyuan-role": { + "description": "Dernier modèle de jeu de rôle Hunyuan, un modèle de jeu de rôle affiné et formé par l'équipe officielle de Hunyuan, basé sur le modèle Hunyuan et des ensembles de données de scénarios de jeu de rôle, offrant de meilleures performances de base dans les scénarios de jeu de rôle." + }, + "hunyuan-standard": { + "description": "Utilise une stratégie de routage améliorée tout en atténuant les problèmes d'équilibrage de charge et de convergence des experts. Pour les longs textes, l'indice de recherche atteint 99,9 %. MOE-32K offre un meilleur rapport qualité-prix, équilibrant efficacité et coût tout en permettant le traitement des entrées de longs textes." + }, + "hunyuan-standard-256K": { + "description": "Utilise une stratégie de routage améliorée tout en atténuant les problèmes d'équilibrage de charge et de convergence des experts. Pour les longs textes, l'indice de recherche atteint 99,9 %. MOE-256K franchit de nouvelles étapes en termes de longueur et d'efficacité, élargissant considérablement la longueur d'entrée possible." + }, + "hunyuan-turbo": { + "description": "Version préliminaire du nouveau modèle de langage de génération Hunyuan, utilisant une nouvelle structure de modèle d'experts mixtes (MoE), offrant une efficacité d'inférence plus rapide et de meilleures performances par rapport à Hunyuan-Pro." + }, + "hunyuan-vision": { + "description": "Dernier modèle multimodal Hunyuan, prenant en charge l'entrée d'images et de textes pour générer du contenu textuel." + }, "internlm/internlm2_5-20b-chat": { "description": "Le modèle open source innovant InternLM2.5 améliore l'intelligence des dialogues grâce à un grand nombre de paramètres." }, @@ -634,6 +697,12 @@ "meta-llama/llama-3.1-8b-instruct:free": { "description": "LLaMA 3.1 offre un support multilingue et est l'un des modèles génératifs les plus avancés de l'industrie." }, + "meta-llama/llama-3.2-11b-vision-instruct": { + "description": "LLaMA 3.2 est conçu pour traiter des tâches combinant des données visuelles et textuelles. Il excelle dans des tâches telles que la description d'images et les questions-réponses visuelles, comblant le fossé entre la génération de langage et le raisonnement visuel." + }, + "meta-llama/llama-3.2-90b-vision-instruct": { + "description": "LLaMA 3.2 est conçu pour traiter des tâches combinant des données visuelles et textuelles. Il excelle dans des tâches telles que la description d'images et les questions-réponses visuelles, comblant le fossé entre la génération de langage et le raisonnement visuel." + }, "meta.llama3-1-405b-instruct-v1:0": { "description": "Meta Llama 3.1 405B Instruct est le modèle le plus grand et le plus puissant du modèle Llama 3.1 Instruct. C'est un modèle de génération de données de dialogue et de raisonnement hautement avancé, qui peut également servir de base pour un pré-entraînement ou un ajustement fin spécialisé dans des domaines spécifiques. Les modèles de langage multilingues (LLMs) fournis par Llama 3.1 sont un ensemble de modèles génératifs pré-entraînés et ajustés par instructions, comprenant des tailles de 8B, 70B et 405B (entrée/sortie de texte). Les modèles de texte ajustés par instructions de Llama 3.1 (8B, 70B, 405B) sont optimisés pour des cas d'utilisation de dialogue multilingue et ont surpassé de nombreux modèles de chat open source disponibles dans des benchmarks industriels courants. Llama 3.1 est conçu pour des usages commerciaux et de recherche dans plusieurs langues. Les modèles de texte ajustés par instructions conviennent aux chats de type assistant, tandis que les modèles pré-entraînés peuvent s'adapter à diverses tâches de génération de langage naturel. Le modèle Llama 3.1 prend également en charge l'amélioration d'autres modèles en utilisant sa sortie, y compris la génération de données synthétiques et le raffinement. Llama 3.1 est un modèle de langage autoregressif utilisant une architecture de transformateur optimisée. Les versions ajustées utilisent un ajustement fin supervisé (SFT) et un apprentissage par renforcement avec retour humain (RLHF) pour répondre aux préférences humaines en matière d'utilité et de sécurité." }, diff --git a/locales/fr-FR/providers.json b/locales/fr-FR/providers.json index 60e26b69ed11..138390323326 100644 --- a/locales/fr-FR/providers.json +++ b/locales/fr-FR/providers.json @@ -30,6 +30,9 @@ "groq": { "description": "Le moteur d'inférence LPU de Groq a excellé dans les derniers tests de référence des grands modèles de langage (LLM), redéfinissant les normes des solutions IA grâce à sa vitesse et son efficacité impressionnantes. Groq représente une vitesse d'inférence instantanée, montrant de bonnes performances dans les déploiements basés sur le cloud." }, + "hunyuan": { + "description": "Un modèle de langage développé par Tencent, doté d'une puissante capacité de création en chinois, d'une capacité de raisonnement logique dans des contextes complexes, ainsi que d'une capacité fiable d'exécution des tâches." + }, "minimax": { "description": "MiniMax est une entreprise de technologie d'intelligence artificielle générale fondée en 2021, dédiée à la co-création d'intelligence avec les utilisateurs. MiniMax a développé de manière autonome différents modèles de grande taille, y compris un modèle de texte MoE à un trillion de paramètres, un modèle vocal et un modèle d'image. Elle a également lancé des applications telles que Conch AI." }, @@ -75,6 +78,9 @@ "upstage": { "description": "Upstage se concentre sur le développement de modèles IA pour divers besoins commerciaux, y compris Solar LLM et Document AI, visant à réaliser une intelligence générale artificielle (AGI) pour le travail. Créez des agents de dialogue simples via l'API Chat, et prenez en charge les appels de fonction, la traduction, l'intégration et les applications spécifiques à un domaine." }, + "wenxin": { + "description": "Plateforme de développement et de services d'applications AI natives et de modèles de grande envergure, tout-en-un pour les entreprises, offrant la chaîne d'outils la plus complète et facile à utiliser pour le développement de modèles d'intelligence artificielle générative et le développement d'applications." + }, "zeroone": { "description": "01.AI se concentre sur les technologies d'intelligence artificielle de l'ère IA 2.0, promouvant activement l'innovation et l'application de \"l'homme + l'intelligence artificielle\", utilisant des modèles puissants et des technologies IA avancées pour améliorer la productivité humaine et réaliser l'autonomisation technologique." }, diff --git a/locales/it-IT/error.json b/locales/it-IT/error.json index add5dbd2f8c6..c405c10d70a0 100644 --- a/locales/it-IT/error.json +++ b/locales/it-IT/error.json @@ -81,6 +81,7 @@ "PluginServerError": "Errore nella risposta del server del plugin. Verifica il file descrittivo del plugin, la configurazione del plugin o l'implementazione del server", "PluginSettingsInvalid": "Il plugin deve essere configurato correttamente prima di poter essere utilizzato. Verifica che la tua configurazione sia corretta", "ProviderBizError": "Errore di business del fornitore {{provider}}. Si prega di controllare le informazioni seguenti o riprovare.", + "QuotaLimitReached": "Ci dispiace, l'uso attuale dei token o il numero di richieste ha raggiunto il limite di quota per questa chiave. Si prega di aumentare la quota di questa chiave o riprovare più tardi.", "StreamChunkError": "Erro di analisi del blocco di messaggi della richiesta in streaming. Controlla se l'interfaccia API attuale è conforme agli standard o contatta il tuo fornitore di API per ulteriori informazioni.", "SubscriptionPlanLimit": "Il tuo piano di abbonamento ha raggiunto il limite e non puoi utilizzare questa funzione. Per favore, passa a un piano superiore o acquista un pacchetto di risorse per continuare.", "UnknownChatFetchError": "Ci scusiamo, si è verificato un errore di richiesta sconosciuto. Si prega di controllare le informazioni seguenti o riprovare." diff --git a/locales/it-IT/modelProvider.json b/locales/it-IT/modelProvider.json index c4a52d7e7fc4..2d6b6ab766f8 100644 --- a/locales/it-IT/modelProvider.json +++ b/locales/it-IT/modelProvider.json @@ -112,6 +112,26 @@ "title": "Scarica il modello Ollama specificato" } }, + "wenxin": { + "accessKey": { + "desc": "Inserisci l'Access Key della piattaforma Qianfan di Baidu", + "placeholder": "Access Key Qianfan", + "title": "Access Key" + }, + "checker": { + "desc": "Verifica se l'AccessKey / SecretAccess è stato inserito correttamente" + }, + "secretKey": { + "desc": "Inserisci il Secret Key della piattaforma Qianfan di Baidu", + "placeholder": "Secret Key Qianfan", + "title": "Secret Key" + }, + "unlock": { + "customRegion": "Regione di servizio personalizzata", + "description": "Inserisci il tuo AccessKey / SecretKey per iniziare la sessione. L'app non registrerà la tua configurazione di autenticazione", + "title": "Utilizza le informazioni di autenticazione personalizzate di Wenxin Yiyan" + } + }, "zeroone": { "title": "01.AI ZeroOne" }, diff --git a/locales/it-IT/models.json b/locales/it-IT/models.json index be1a6932d669..e2dea3a2d34a 100644 --- a/locales/it-IT/models.json +++ b/locales/it-IT/models.json @@ -32,6 +32,39 @@ "Baichuan4": { "description": "Il modello ha la migliore capacità in Cina, superando i modelli mainstream esteri in compiti cinesi come enciclopedie, testi lunghi e creazione di contenuti. Ha anche capacità multimodali leader nel settore, con prestazioni eccellenti in vari benchmark di valutazione." }, + "ERNIE-3.5-128K": { + "description": "Modello di linguaggio di grande scala di punta sviluppato da Baidu, che copre un'enorme quantità di dati in cinese e inglese, con potenti capacità generali, in grado di soddisfare la maggior parte delle esigenze di domande e risposte, generazione creativa e scenari di applicazione dei plugin; supporta l'integrazione automatica con il plugin di ricerca di Baidu, garantendo l'aggiornamento delle informazioni nelle risposte." + }, + "ERNIE-3.5-8K": { + "description": "Modello di linguaggio di grande scala di punta sviluppato da Baidu, che copre un'enorme quantità di dati in cinese e inglese, con potenti capacità generali, in grado di soddisfare la maggior parte delle esigenze di domande e risposte, generazione creativa e scenari di applicazione dei plugin; supporta l'integrazione automatica con il plugin di ricerca di Baidu, garantendo l'aggiornamento delle informazioni nelle risposte." + }, + "ERNIE-3.5-8K-Preview": { + "description": "Modello di linguaggio di grande scala di punta sviluppato da Baidu, che copre un'enorme quantità di dati in cinese e inglese, con potenti capacità generali, in grado di soddisfare la maggior parte delle esigenze di domande e risposte, generazione creativa e scenari di applicazione dei plugin; supporta l'integrazione automatica con il plugin di ricerca di Baidu, garantendo l'aggiornamento delle informazioni nelle risposte." + }, + "ERNIE-4.0-8K-Latest": { + "description": "Modello di linguaggio di grande scala ultra avanzato sviluppato da Baidu, che rispetto a ERNIE 3.5 ha subito un aggiornamento completo delle capacità del modello, ampiamente applicabile a scenari di compiti complessi in vari settori; supporta l'integrazione automatica con il plugin di ricerca di Baidu, garantendo l'aggiornamento delle informazioni nelle risposte." + }, + "ERNIE-4.0-8K-Preview": { + "description": "Modello di linguaggio di grande scala ultra avanzato sviluppato da Baidu, che rispetto a ERNIE 3.5 ha subito un aggiornamento completo delle capacità del modello, ampiamente applicabile a scenari di compiti complessi in vari settori; supporta l'integrazione automatica con il plugin di ricerca di Baidu, garantendo l'aggiornamento delle informazioni nelle risposte." + }, + "ERNIE-4.0-Turbo-8K": { + "description": "Modello di linguaggio di grande scala ultra avanzato sviluppato da Baidu, con prestazioni complessive eccezionali, ampiamente applicabile a scenari di compiti complessi in vari settori; supporta l'integrazione automatica con il plugin di ricerca di Baidu, garantendo l'aggiornamento delle informazioni nelle risposte. Rispetto a ERNIE 4.0, offre prestazioni superiori." + }, + "ERNIE-4.0-Turbo-8K-Preview": { + "description": "Modello di linguaggio di grande scala ultra avanzato sviluppato da Baidu, con prestazioni complessive eccezionali, ampiamente applicabile a scenari di compiti complessi in vari settori; supporta l'integrazione automatica con il plugin di ricerca di Baidu, garantendo l'aggiornamento delle informazioni nelle risposte. Rispetto a ERNIE 4.0, offre prestazioni superiori." + }, + "ERNIE-Character-8K": { + "description": "Modello di linguaggio verticale sviluppato da Baidu, adatto per applicazioni come NPC nei giochi, dialoghi di assistenza clienti, e interpretazione di ruoli nei dialoghi, con uno stile di personaggio più distintivo e coerente, capacità di seguire le istruzioni più forte e prestazioni di inferenza superiori." + }, + "ERNIE-Lite-Pro-128K": { + "description": "Modello di linguaggio leggero sviluppato da Baidu, che combina prestazioni eccellenti del modello con prestazioni di inferenza, con risultati migliori rispetto a ERNIE Lite, adatto per l'uso in schede di accelerazione AI a bassa potenza." + }, + "ERNIE-Speed-128K": { + "description": "Modello di linguaggio ad alte prestazioni sviluppato da Baidu, lanciato nel 2024, con capacità generali eccellenti, adatto come modello di base per il fine-tuning, per gestire meglio le problematiche di scenari specifici, mantenendo al contempo prestazioni di inferenza eccezionali." + }, + "ERNIE-Speed-Pro-128K": { + "description": "Modello di linguaggio ad alte prestazioni sviluppato da Baidu, lanciato nel 2024, con capacità generali eccellenti, risultati migliori rispetto a ERNIE Speed, adatto come modello di base per il fine-tuning, per gestire meglio le problematiche di scenari specifici, mantenendo al contempo prestazioni di inferenza eccezionali." + }, "Gryphe/MythoMax-L2-13b": { "description": "MythoMax-L2 (13B) è un modello innovativo, adatto per applicazioni in più settori e compiti complessi." }, @@ -401,6 +434,9 @@ "glm-4-flash": { "description": "GLM-4-Flash è l'ideale per compiti semplici, con la massima velocità e il prezzo più conveniente." }, + "glm-4-flashx": { + "description": "GLM-4-FlashX è una versione potenziata di Flash, con una velocità di inferenza super veloce." + }, "glm-4-long": { "description": "GLM-4-Long supporta input di testo ultra-lunghi, adatto per compiti di memoria e gestione di documenti su larga scala." }, @@ -413,11 +449,11 @@ "glm-4v-plus": { "description": "GLM-4V-Plus ha la capacità di comprendere contenuti video e più immagini, adatto per compiti multimodali." }, - "google/gemini-flash-1.5-exp": { - "description": "Gemini 1.5 Flash 0827 offre capacità di elaborazione multimodale ottimizzate, adatte a vari scenari di compiti complessi." + "google/gemini-flash-1.5": { + "description": "Gemini 1.5 Flash offre capacità di elaborazione multimodale ottimizzate, adatte a vari scenari di compiti complessi." }, - "google/gemini-pro-1.5-exp": { - "description": "Gemini 1.5 Pro 0827 combina le più recenti tecnologie di ottimizzazione, offrendo capacità di elaborazione dei dati multimodali più efficienti." + "google/gemini-pro-1.5": { + "description": "Gemini 1.5 Pro combina le più recenti tecnologie di ottimizzazione, offrendo una capacità di elaborazione dei dati multimodali più efficiente." }, "google/gemma-2-27b-it": { "description": "Gemma 2 continua il concetto di design leggero ed efficiente." @@ -491,6 +527,33 @@ "gryphe/mythomax-l2-13b": { "description": "MythoMax l2 13B è un modello linguistico che combina creatività e intelligenza, unendo diversi modelli di punta." }, + "hunyuan-code": { + "description": "Ultimo modello di generazione di codice di Hunyuan, addestrato su un modello di base con 200B di dati di codice di alta qualità, con sei mesi di addestramento su dati SFT di alta qualità, la lunghezza della finestra di contesto è aumentata a 8K, e si posiziona tra i primi in cinque indicatori di valutazione automatica della generazione di codice; nelle valutazioni di alta qualità su dieci aspetti di codice in cinque lingue, le prestazioni sono nella prima fascia." + }, + "hunyuan-functioncall": { + "description": "Ultimo modello FunctionCall con architettura MOE di Hunyuan, addestrato su dati di alta qualità per le chiamate di funzione, con una finestra di contesto di 32K, è in testa in vari indicatori di valutazione." + }, + "hunyuan-lite": { + "description": "Aggiornato a una struttura MOE, con una finestra di contesto di 256k, è in testa a molti modelli open source in vari set di valutazione su NLP, codice, matematica e settori." + }, + "hunyuan-pro": { + "description": "Modello di testo lungo MOE-32K con un miliardo di parametri. Raggiunge livelli di eccellenza in vari benchmark, con capacità di istruzioni complesse e ragionamento, supporta le chiamate di funzione, ottimizzato per traduzione multilingue, finanza, diritto e medicina." + }, + "hunyuan-role": { + "description": "Ultimo modello di ruolo di Hunyuan, un modello di ruolo fine-tuned ufficialmente rilasciato da Hunyuan, addestrato su un dataset di scenari di ruolo, con migliori prestazioni di base in scenari di ruolo." + }, + "hunyuan-standard": { + "description": "Utilizza una strategia di routing migliore, alleviando i problemi di bilanciamento del carico e convergenza degli esperti. Per i testi lunghi, l'indice di recupero è del 99,9%. MOE-32K offre un buon rapporto qualità-prezzo, bilanciando efficacia e costo, e gestisce l'input di testi lunghi." + }, + "hunyuan-standard-256K": { + "description": "Utilizza una strategia di routing migliore, alleviando i problemi di bilanciamento del carico e convergenza degli esperti. Per i testi lunghi, l'indice di recupero è del 99,9%. MOE-256K supera ulteriormente in lunghezza ed efficacia, ampliando notevolmente la lunghezza massima di input." + }, + "hunyuan-turbo": { + "description": "Anteprima della nuova generazione di modelli di linguaggio di Hunyuan, utilizza una nuova struttura di modello ibrido di esperti (MoE), con una maggiore efficienza di inferenza e prestazioni superiori rispetto a hunyuan-pro." + }, + "hunyuan-vision": { + "description": "Ultimo modello multimodale di Hunyuan, supporta l'input di immagini e testo per generare contenuti testuali." + }, "internlm/internlm2_5-20b-chat": { "description": "Il modello open source innovativo InternLM2.5, con un gran numero di parametri, migliora l'intelligenza del dialogo." }, @@ -634,6 +697,12 @@ "meta-llama/llama-3.1-8b-instruct:free": { "description": "LLaMA 3.1 offre supporto multilingue ed è uno dei modelli generativi leader nel settore." }, + "meta-llama/llama-3.2-11b-vision-instruct": { + "description": "LLaMA 3.2 è progettato per gestire compiti che combinano dati visivi e testuali. Si distingue in compiti come la descrizione delle immagini e il question answering visivo, colmando il divario tra generazione del linguaggio e ragionamento visivo." + }, + "meta-llama/llama-3.2-90b-vision-instruct": { + "description": "LLaMA 3.2 è progettato per gestire compiti che combinano dati visivi e testuali. Si distingue in compiti come la descrizione delle immagini e il question answering visivo, colmando il divario tra generazione del linguaggio e ragionamento visivo." + }, "meta.llama3-1-405b-instruct-v1:0": { "description": "Meta Llama 3.1 405B Instruct è il modello più grande e potente della serie Llama 3.1 Instruct, un modello avanzato per la generazione di dati e il ragionamento conversazionale, utilizzabile anche come base per un pre-addestramento o un fine-tuning specializzato in determinati settori. I modelli di linguaggio di grandi dimensioni (LLMs) multilingue forniti da Llama 3.1 sono un insieme di modelli generativi pre-addestrati e ottimizzati per le istruzioni, che includono dimensioni di 8B, 70B e 405B (input/output di testo). I modelli di testo ottimizzati per le istruzioni di Llama 3.1 (8B, 70B, 405B) sono stati progettati per casi d'uso conversazionali multilingue e hanno superato molti modelli di chat open source disponibili in benchmark di settore comuni. Llama 3.1 è progettato per usi commerciali e di ricerca in diverse lingue. I modelli di testo ottimizzati per le istruzioni sono adatti a chat simili a assistenti, mentre i modelli pre-addestrati possono adattarsi a vari compiti di generazione di linguaggio naturale. I modelli Llama 3.1 supportano anche l'uso della loro output per migliorare altri modelli, inclusa la generazione di dati sintetici e il raffinamento. Llama 3.1 è un modello di linguaggio autoregressivo basato su un'architettura di trasformatore ottimizzata. Le versioni ottimizzate utilizzano il fine-tuning supervisionato (SFT) e l'apprendimento per rinforzo con feedback umano (RLHF) per allinearsi alle preferenze umane in termini di utilità e sicurezza." }, diff --git a/locales/it-IT/providers.json b/locales/it-IT/providers.json index f965abaff2d3..f69216637d88 100644 --- a/locales/it-IT/providers.json +++ b/locales/it-IT/providers.json @@ -30,6 +30,9 @@ "groq": { "description": "Il motore di inferenza LPU di Groq ha mostrato prestazioni eccezionali nei recenti benchmark indipendenti sui modelli di linguaggio di grandi dimensioni (LLM), ridefinendo gli standard delle soluzioni AI con la sua incredibile velocità ed efficienza. Groq rappresenta una velocità di inferenza istantanea, mostrando buone prestazioni nelle implementazioni basate su cloud." }, + "hunyuan": { + "description": "Un modello di linguaggio sviluppato da Tencent, dotato di potenti capacità di creazione in cinese, abilità di ragionamento logico in contesti complessi e capacità affidabili di esecuzione dei compiti." + }, "minimax": { "description": "MiniMax è un'azienda di tecnologia dell'intelligenza artificiale generale fondata nel 2021, dedicata alla co-creazione di intelligenza con gli utenti. MiniMax ha sviluppato modelli generali di diverse modalità, tra cui un modello di testo MoE con trilioni di parametri, un modello vocale e un modello visivo. Ha anche lanciato applicazioni come Conch AI." }, @@ -75,6 +78,9 @@ "upstage": { "description": "Upstage si concentra sullo sviluppo di modelli AI per varie esigenze commerciali, inclusi Solar LLM e document AI, con l'obiettivo di realizzare un'intelligenza artificiale generale artificiale (AGI) per il lavoro. Crea semplici agenti di dialogo tramite Chat API e supporta chiamate funzionali, traduzioni, embedding e applicazioni specifiche del settore." }, + "wenxin": { + "description": "Piattaforma di sviluppo e servizi per modelli di grandi dimensioni e applicazioni AI native, a livello aziendale, che offre la catena di strumenti completa e facile da usare per lo sviluppo di modelli di intelligenza artificiale generativa e per l'intero processo di sviluppo delle applicazioni." + }, "zeroone": { "description": "01.AI si concentra sulla tecnologia AI dell'era 2.0, promuovendo attivamente l'innovazione e l'applicazione di \"uomo + intelligenza artificiale\", utilizzando modelli potenti e tecnologie AI avanzate per migliorare la produttività umana e realizzare l'abilitazione tecnologica." }, diff --git a/locales/ja-JP/error.json b/locales/ja-JP/error.json index f2b1627a437e..4ca3ecff29f8 100644 --- a/locales/ja-JP/error.json +++ b/locales/ja-JP/error.json @@ -81,6 +81,7 @@ "PluginServerError": "プラグインサーバーのリクエストエラーが発生しました。以下のエラーメッセージを参考に、プラグインのマニフェストファイル、設定、サーバー実装を確認してください", "PluginSettingsInvalid": "このプラグインを使用するには、正しい設定が必要です。設定が正しいかどうか確認してください", "ProviderBizError": "リクエスト {{provider}} サービスでエラーが発生しました。以下の情報を確認して再試行してください。", + "QuotaLimitReached": "申し訳ありませんが、現在のトークン使用量またはリクエスト回数がこのキーのクォータ上限に達しました。キーのクォータを増やすか、後でもう一度お試しください。", "StreamChunkError": "ストリーミングリクエストのメッセージブロック解析エラーです。現在のAPIインターフェースが標準仕様に準拠しているか確認するか、APIプロバイダーにお問い合わせください。", "SubscriptionPlanLimit": "ご契約のクォータが使い切られましたので、この機能を使用することはできません。より高いプランにアップグレードするか、リソースパッケージを購入して継続してください。", "UnknownChatFetchError": "申し訳ありませんが、未知のリクエストエラーが発生しました。以下の情報をもとに確認するか、再試行してください。" diff --git a/locales/ja-JP/modelProvider.json b/locales/ja-JP/modelProvider.json index 6ca08bc6b465..d16ea0f745e5 100644 --- a/locales/ja-JP/modelProvider.json +++ b/locales/ja-JP/modelProvider.json @@ -112,6 +112,26 @@ "title": "Download specified Ollama model" } }, + "wenxin": { + "accessKey": { + "desc": "百度千帆プラットフォームのAccess Keyを入力してください", + "placeholder": "Qianfan Access Key", + "title": "Access Key" + }, + "checker": { + "desc": "AccessKey / SecretAccessが正しく入力されているかテストします" + }, + "secretKey": { + "desc": "百度千帆プラットフォームのSecret Keyを入力してください", + "placeholder": "Qianfan Secret Key", + "title": "Secret Key" + }, + "unlock": { + "customRegion": "カスタムサービス地域", + "description": "AccessKey / SecretKeyを入力することでセッションを開始できます。アプリはあなたの認証設定を記録しません", + "title": "カスタム文心一言認証情報を使用" + } + }, "zeroone": { "title": "01.AI 零一万物" }, diff --git a/locales/ja-JP/models.json b/locales/ja-JP/models.json index 141cf052da2e..5e12cff10e47 100644 --- a/locales/ja-JP/models.json +++ b/locales/ja-JP/models.json @@ -32,6 +32,39 @@ "Baichuan4": { "description": "モデル能力は国内でトップであり、知識百科、長文、生成創作などの中国語タスクで海外の主流モデルを超えています。また、業界をリードするマルチモーダル能力を備え、複数の権威ある評価基準で優れたパフォーマンスを示しています。" }, + "ERNIE-3.5-128K": { + "description": "百度が独自に開発したフラッグシップの大規模言語モデルで、膨大な中英語のコーパスをカバーし、強力な汎用能力を持っています。ほとんどの対話型質問応答、創作生成、プラグインアプリケーションの要件を満たすことができます。また、百度検索プラグインとの自動接続をサポートし、質問応答情報のタイムリーさを保証します。" + }, + "ERNIE-3.5-8K": { + "description": "百度が独自に開発したフラッグシップの大規模言語モデルで、膨大な中英語のコーパスをカバーし、強力な汎用能力を持っています。ほとんどの対話型質問応答、創作生成、プラグインアプリケーションの要件を満たすことができます。また、百度検索プラグインとの自動接続をサポートし、質問応答情報のタイムリーさを保証します。" + }, + "ERNIE-3.5-8K-Preview": { + "description": "百度が独自に開発したフラッグシップの大規模言語モデルで、膨大な中英語のコーパスをカバーし、強力な汎用能力を持っています。ほとんどの対話型質問応答、創作生成、プラグインアプリケーションの要件を満たすことができます。また、百度検索プラグインとの自動接続をサポートし、質問応答情報のタイムリーさを保証します。" + }, + "ERNIE-4.0-8K-Latest": { + "description": "百度が独自に開発したフラッグシップの超大規模言語モデルで、ERNIE 3.5に比べてモデル能力が全面的にアップグレードされ、さまざまな分野の複雑なタスクシナリオに広く適用されます。百度検索プラグインとの自動接続をサポートし、質問応答情報のタイムリーさを保証します。" + }, + "ERNIE-4.0-8K-Preview": { + "description": "百度が独自に開発したフラッグシップの超大規模言語モデルで、ERNIE 3.5に比べてモデル能力が全面的にアップグレードされ、さまざまな分野の複雑なタスクシナリオに広く適用されます。百度検索プラグインとの自動接続をサポートし、質問応答情報のタイムリーさを保証します。" + }, + "ERNIE-4.0-Turbo-8K": { + "description": "百度が独自に開発したフラッグシップの超大規模言語モデルで、総合的なパフォーマンスが優れており、さまざまな分野の複雑なタスクシナリオに広く適用されます。百度検索プラグインとの自動接続をサポートし、質問応答情報のタイムリーさを保証します。ERNIE 4.0に比べてパフォーマンスがさらに優れています。" + }, + "ERNIE-4.0-Turbo-8K-Preview": { + "description": "百度が独自に開発したフラッグシップの超大規模言語モデルで、総合的なパフォーマンスが優れており、さまざまな分野の複雑なタスクシナリオに広く適用されます。百度検索プラグインとの自動接続をサポートし、質問応答情報のタイムリーさを保証します。ERNIE 4.0に比べてパフォーマンスがさらに優れています。" + }, + "ERNIE-Character-8K": { + "description": "百度が独自に開発した垂直シナリオ向けの大規模言語モデルで、ゲームのNPC、カスタマーサービスの対話、対話型キャラクターの役割演技などのアプリケーションシナリオに適しており、キャラクターのスタイルがより鮮明で一貫性があり、指示に従う能力が強化され、推論性能が向上しています。" + }, + "ERNIE-Lite-Pro-128K": { + "description": "百度が独自に開発した軽量大規模言語モデルで、優れたモデル効果と推論性能を兼ね備え、ERNIE Liteよりも効果が優れており、低計算能力のAIアクセラレータカードでの推論使用に適しています。" + }, + "ERNIE-Speed-128K": { + "description": "百度が2024年に最新リリースした独自開発の高性能大規模言語モデルで、汎用能力が優れており、基盤モデルとして微調整に適しており、特定のシナリオの問題をより良く処理し、優れた推論性能を持っています。" + }, + "ERNIE-Speed-Pro-128K": { + "description": "百度が2024年に最新リリースした独自開発の高性能大規模言語モデルで、汎用能力が優れており、ERNIE Speedよりも効果が優れており、基盤モデルとして微調整に適しており、特定のシナリオの問題をより良く処理し、優れた推論性能を持っています。" + }, "Gryphe/MythoMax-L2-13b": { "description": "MythoMax-L2 (13B)は、革新的なモデルであり、多分野のアプリケーションや複雑なタスクに適しています。" }, @@ -401,6 +434,9 @@ "glm-4-flash": { "description": "GLM-4-Flashはシンプルなタスクを処理するのに理想的な選択肢で、最も速く、最も手頃な価格です。" }, + "glm-4-flashx": { + "description": "GLM-4-FlashXはFlashの強化版で、超高速の推論速度を誇ります。" + }, "glm-4-long": { "description": "GLM-4-Longは超長文入力をサポートし、記憶型タスクや大規模文書処理に適しています。" }, @@ -413,11 +449,11 @@ "glm-4v-plus": { "description": "GLM-4V-Plusは動画コンテンツや複数の画像を理解する能力を持ち、マルチモーダルタスクに適しています。" }, - "google/gemini-flash-1.5-exp": { - "description": "Gemini 1.5 Flash 0827は、最適化されたマルチモーダル処理能力を提供し、さまざまな複雑なタスクシーンに適用可能です。" + "google/gemini-flash-1.5": { + "description": "Gemini 1.5 Flashは、最適化されたマルチモーダル処理能力を提供し、さまざまな複雑なタスクシナリオに適しています。" }, - "google/gemini-pro-1.5-exp": { - "description": "Gemini 1.5 Pro 0827は、最新の最適化技術を組み合わせて、より効率的なマルチモーダルデータ処理能力を提供します。" + "google/gemini-pro-1.5": { + "description": "Gemini 1.5 Proは、最新の最適化技術を組み合わせて、より効率的なマルチモーダルデータ処理能力を実現します。" }, "google/gemma-2-27b-it": { "description": "Gemma 2は、軽量化と高効率のデザイン理念を継承しています。" @@ -491,6 +527,33 @@ "gryphe/mythomax-l2-13b": { "description": "MythoMax l2 13Bは複数のトップモデルを統合した創造性と知性を兼ね備えた言語モデルです。" }, + "hunyuan-code": { + "description": "混元の最新のコード生成モデルで、200Bの高品質コードデータで基盤モデルを増強し、半年間の高品質SFTデータトレーニングを経て、コンテキストウィンドウの長さが8Kに増加しました。5つの主要言語のコード生成自動評価指標で上位に位置し、5つの言語における10項目の総合コードタスクの人工高品質評価で、パフォーマンスは第一梯隊にあります。" + }, + "hunyuan-functioncall": { + "description": "混元の最新のMOEアーキテクチャFunctionCallモデルで、高品質のFunctionCallデータトレーニングを経て、コンテキストウィンドウは32Kに達し、複数の次元の評価指標でリーダーシップを発揮しています。" + }, + "hunyuan-lite": { + "description": "MOE構造にアップグレードされ、コンテキストウィンドウは256kで、NLP、コード、数学、業界などの多くの評価セットで多くのオープンソースモデルをリードしています。" + }, + "hunyuan-pro": { + "description": "万億規模のパラメータを持つMOE-32K長文モデルです。さまざまなベンチマークで絶対的なリーダーシップを達成し、複雑な指示や推論、複雑な数学能力を備え、functioncallをサポートし、多言語翻訳、金融、法律、医療などの分野で重点的に最適化されています。" + }, + "hunyuan-role": { + "description": "混元の最新のロールプレイングモデルで、混元公式の精緻なトレーニングによって開発されたロールプレイングモデルで、混元モデルとロールプレイングシナリオデータセットを組み合わせて増強され、ロールプレイングシナリオにおいてより良い基本的な効果を持っています。" + }, + "hunyuan-standard": { + "description": "より優れたルーティング戦略を採用し、負荷分散と専門家の収束の問題を緩和しました。長文に関しては、大海捞針指標が99.9%に達しています。MOE-32Kはコストパフォーマンスが相対的に高く、効果と価格のバランスを取りながら、長文入力の処理を実現します。" + }, + "hunyuan-standard-256K": { + "description": "より優れたルーティング戦略を採用し、負荷分散と専門家の収束の問題を緩和しました。長文に関しては、大海捞針指標が99.9%に達しています。MOE-256Kは長さと効果の面でさらに突破し、入力可能な長さを大幅に拡張しました。" + }, + "hunyuan-turbo": { + "description": "混元の新世代大規模言語モデルのプレビュー版で、全く新しい混合専門家モデル(MoE)構造を採用し、hunyuan-proに比べて推論効率が向上し、パフォーマンスも強化されています。" + }, + "hunyuan-vision": { + "description": "混元の最新のマルチモーダルモデルで、画像とテキストの入力をサポートし、テキストコンテンツを生成します。" + }, "internlm/internlm2_5-20b-chat": { "description": "革新的なオープンソースモデルInternLM2.5は、大規模なパラメータを通じて対話のインテリジェンスを向上させました。" }, @@ -634,6 +697,12 @@ "meta-llama/llama-3.1-8b-instruct:free": { "description": "LLaMA 3.1は多言語サポートを提供し、業界をリードする生成モデルの一つです。" }, + "meta-llama/llama-3.2-11b-vision-instruct": { + "description": "LLaMA 3.2は、視覚とテキストデータを組み合わせたタスクを処理することを目的としています。画像の説明や視覚的な質問応答などのタスクで優れたパフォーマンスを発揮し、言語生成と視覚推論の間のギャップを超えています。" + }, + "meta-llama/llama-3.2-90b-vision-instruct": { + "description": "LLaMA 3.2は、視覚とテキストデータを組み合わせたタスクを処理することを目的としています。画像の説明や視覚的な質問応答などのタスクで優れたパフォーマンスを発揮し、言語生成と視覚推論の間のギャップを超えています。" + }, "meta.llama3-1-405b-instruct-v1:0": { "description": "Meta Llama 3.1 405B Instructは、Llama 3.1 Instructモデルの中で最大かつ最も強力なモデルであり、高度に進化した対話推論および合成データ生成モデルです。また、特定の分野での専門的な継続的な事前トレーニングや微調整の基盤としても使用できます。Llama 3.1が提供する多言語大規模言語モデル(LLMs)は、8B、70B、405Bのサイズ(テキスト入力/出力)を含む、事前トレーニングされた指示調整された生成モデルのセットです。Llama 3.1の指示調整されたテキストモデル(8B、70B、405B)は、多言語対話のユースケースに最適化されており、一般的な業界ベンチマークテストで多くの利用可能なオープンソースチャットモデルを上回っています。Llama 3.1は、さまざまな言語の商業および研究用途に使用されることを目的としています。指示調整されたテキストモデルは、アシスタントのようなチャットに適しており、事前トレーニングモデルはさまざまな自然言語生成タスクに適応できます。Llama 3.1モデルは、他のモデルを改善するためにその出力を利用することもサポートしており、合成データ生成や洗練にも対応しています。Llama 3.1は、最適化されたトランスフォーマーアーキテクチャを使用した自己回帰型言語モデルです。調整されたバージョンは、監視付き微調整(SFT)と人間のフィードバックを伴う強化学習(RLHF)を使用して、人間の助けや安全性に対する好みに適合させています。" }, diff --git a/locales/ja-JP/providers.json b/locales/ja-JP/providers.json index b0b534350fcd..9d915f1c9392 100644 --- a/locales/ja-JP/providers.json +++ b/locales/ja-JP/providers.json @@ -30,6 +30,9 @@ "groq": { "description": "GroqのLPU推論エンジンは、最新の独立した大規模言語モデル(LLM)ベンチマークテストで卓越したパフォーマンスを示し、その驚異的な速度と効率でAIソリューションの基準を再定義しています。Groqは、即時推論速度の代表であり、クラウドベースの展開で良好なパフォーマンスを発揮しています。" }, + "hunyuan": { + "description": "テンセントが開発した大規模言語モデルであり、強力な中国語の創作能力、複雑な文脈における論理的推論能力、そして信頼性の高いタスク実行能力を備えています。" + }, "minimax": { "description": "MiniMaxは2021年に設立された汎用人工知能テクノロジー企業であり、ユーザーと共に知能を共創することに取り組んでいます。MiniMaxは、さまざまなモードの汎用大モデルを独自に開発しており、トリリオンパラメータのMoEテキスト大モデル、音声大モデル、画像大モデルを含んでいます。また、海螺AIなどのアプリケーションも展開しています。" }, @@ -75,6 +78,9 @@ "upstage": { "description": "Upstageは、さまざまなビジネスニーズに応じたAIモデルの開発に特化しており、Solar LLMや文書AIを含み、人造一般知能(AGI)の実現を目指しています。Chat APIを通じてシンプルな対話エージェントを作成し、機能呼び出し、翻訳、埋め込み、特定分野のアプリケーションをサポートします。" }, + "wenxin": { + "description": "企業向けのワンストップ大規模モデルとAIネイティブアプリケーションの開発およびサービスプラットフォームで、最も包括的で使いやすい生成的人工知能モデルの開発とアプリケーション開発の全プロセスツールチェーンを提供します。" + }, "zeroone": { "description": "01.AIは、AI 2.0時代の人工知能技術に特化し、「人+人工知能」の革新と応用を推進し、超強力なモデルと先進的なAI技術を用いて人類の生産性を向上させ、技術の力を実現します。" }, diff --git a/locales/ko-KR/error.json b/locales/ko-KR/error.json index dfb815faa7f2..8255578a5a53 100644 --- a/locales/ko-KR/error.json +++ b/locales/ko-KR/error.json @@ -81,6 +81,7 @@ "PluginServerError": "플러그인 서버 요청이 오류로 반환되었습니다. 플러그인 설명 파일, 플러그인 구성 또는 서버 구현을 확인해주세요.", "PluginSettingsInvalid": "플러그인을 사용하려면 올바른 구성이 필요합니다. 구성이 올바른지 확인해주세요.", "ProviderBizError": "요청한 {{provider}} 서비스에서 오류가 발생했습니다. 아래 정보를 확인하고 다시 시도해주세요.", + "QuotaLimitReached": "죄송합니다. 현재 토큰 사용량 또는 요청 횟수가 해당 키의 할당량 한도에 도달했습니다. 해당 키의 할당량을 늘리거나 나중에 다시 시도해 주십시오.", "StreamChunkError": "스트리밍 요청의 메시지 블록 구문 분석 오류입니다. 현재 API 인터페이스가 표준 규격에 부합하는지 확인하거나 API 공급자에게 문의하십시오.", "SubscriptionPlanLimit": "구독 한도를 모두 사용했으므로이 기능을 사용할 수 없습니다. 더 높은 요금제로 업그레이드하거나 리소스 패키지를 구매하여 계속 사용하십시오.", "UnknownChatFetchError": "죄송합니다. 알 수 없는 요청 오류가 발생했습니다. 아래 정보를 참고하여 문제를 해결하거나 다시 시도해 주세요." diff --git a/locales/ko-KR/modelProvider.json b/locales/ko-KR/modelProvider.json index 39ffd897a5d3..5d0375f9ea20 100644 --- a/locales/ko-KR/modelProvider.json +++ b/locales/ko-KR/modelProvider.json @@ -112,6 +112,26 @@ "title": "Download specified Ollama model" } }, + "wenxin": { + "accessKey": { + "desc": "바이두 천범 플랫폼의 Access Key를 입력하세요", + "placeholder": "Qianfan Access Key", + "title": "Access Key" + }, + "checker": { + "desc": "AccessKey / SecretAccess가 올바르게 입력되었는지 테스트합니다" + }, + "secretKey": { + "desc": "바이두 천범 플랫폼의 Secret Key를 입력하세요", + "placeholder": "Qianfan Secret Key", + "title": "Secret Key" + }, + "unlock": { + "customRegion": "사용자 정의 서비스 지역", + "description": "당신의 AccessKey / SecretKey를 입력하면 대화를 시작할 수 있습니다. 애플리케이션은 당신의 인증 구성을 기록하지 않습니다", + "title": "사용자 정의 문신 일언 인증 정보 사용" + } + }, "zeroone": { "title": "01.AI Zero One All Things" }, diff --git a/locales/ko-KR/models.json b/locales/ko-KR/models.json index fa01330c3d7f..d455f39cc7ad 100644 --- a/locales/ko-KR/models.json +++ b/locales/ko-KR/models.json @@ -32,6 +32,39 @@ "Baichuan4": { "description": "모델 능력 국내 1위로, 지식 백과, 긴 텍스트, 생성 창작 등 중국어 작업에서 해외 주류 모델을 초월합니다. 또한 업계 선도적인 다중 모달 능력을 갖추고 있으며, 여러 권위 있는 평가 기준에서 우수한 성과를 보입니다." }, + "ERNIE-3.5-128K": { + "description": "바이두가 자체 개발한 플래그십 대규모 언어 모델로, 방대한 중문 및 영문 코퍼스를 포함하고 있으며, 강력한 일반 능력을 갖추고 있어 대부분의 대화형 질문 응답, 창작 생성, 플러그인 응용 시나리오 요구를 충족할 수 있습니다. 또한 바이두 검색 플러그인과의 자동 연동을 지원하여 질문 응답 정보의 시의성을 보장합니다." + }, + "ERNIE-3.5-8K": { + "description": "바이두가 자체 개발한 플래그십 대규모 언어 모델로, 방대한 중문 및 영문 코퍼스를 포함하고 있으며, 강력한 일반 능력을 갖추고 있어 대부분의 대화형 질문 응답, 창작 생성, 플러그인 응용 시나리오 요구를 충족할 수 있습니다. 또한 바이두 검색 플러그인과의 자동 연동을 지원하여 질문 응답 정보의 시의성을 보장합니다." + }, + "ERNIE-3.5-8K-Preview": { + "description": "바이두가 자체 개발한 플래그십 대규모 언어 모델로, 방대한 중문 및 영문 코퍼스를 포함하고 있으며, 강력한 일반 능력을 갖추고 있어 대부분의 대화형 질문 응답, 창작 생성, 플러그인 응용 시나리오 요구를 충족할 수 있습니다. 또한 바이두 검색 플러그인과의 자동 연동을 지원하여 질문 응답 정보의 시의성을 보장합니다." + }, + "ERNIE-4.0-8K-Latest": { + "description": "바이두가 자체 개발한 플래그십 초대규모 언어 모델로, ERNIE 3.5에 비해 모델 능력이 전면적으로 업그레이드되었으며, 다양한 분야의 복잡한 작업 시나리오에 널리 적용됩니다. 자동으로 바이두 검색 플러그인과 연결되어 질문 응답 정보의 시의성을 보장합니다." + }, + "ERNIE-4.0-8K-Preview": { + "description": "바이두가 자체 개발한 플래그십 초대규모 언어 모델로, ERNIE 3.5에 비해 모델 능력이 전면적으로 업그레이드되었으며, 다양한 분야의 복잡한 작업 시나리오에 널리 적용됩니다. 자동으로 바이두 검색 플러그인과 연결되어 질문 응답 정보의 시의성을 보장합니다." + }, + "ERNIE-4.0-Turbo-8K": { + "description": "바이두가 자체 개발한 플래그십 초대규모 언어 모델로, 종합적인 성능이 뛰어나며, 다양한 분야의 복잡한 작업 시나리오에 널리 적용됩니다. 자동으로 바이두 검색 플러그인과 연결되어 질문 응답 정보의 시의성을 보장합니다. ERNIE 4.0에 비해 성능이 더욱 우수합니다." + }, + "ERNIE-4.0-Turbo-8K-Preview": { + "description": "바이두가 자체 개발한 플래그십 초대규모 언어 모델로, 종합적인 성능이 뛰어나며, 다양한 분야의 복잡한 작업 시나리오에 널리 적용됩니다. 자동으로 바이두 검색 플러그인과 연결되어 질문 응답 정보의 시의성을 보장합니다. ERNIE 4.0에 비해 성능이 더욱 우수합니다." + }, + "ERNIE-Character-8K": { + "description": "바이두가 자체 개발한 수직 장면 대언어 모델로, 게임 NPC, 고객 서비스 대화, 대화 역할 수행 등 다양한 응용 시나리오에 적합하며, 캐릭터 스타일이 더욱 뚜렷하고 일관되며, 지시 준수 능력이 더 강하고, 추론 성능이 우수합니다." + }, + "ERNIE-Lite-Pro-128K": { + "description": "바이두가 자체 개발한 경량 대언어 모델로, 우수한 모델 효과와 추론 성능을 겸비하고 있으며, ERNIE Lite보다 더 나은 성능을 보여 저전력 AI 가속 카드에서의 추론 사용에 적합합니다." + }, + "ERNIE-Speed-128K": { + "description": "바이두가 2024년에 최신 발표한 자체 개발 고성능 대언어 모델로, 일반 능력이 뛰어나며, 특정 시나리오 문제를 더 잘 처리하기 위해 기본 모델로 조정하는 데 적합하며, 뛰어난 추론 성능을 갖추고 있습니다." + }, + "ERNIE-Speed-Pro-128K": { + "description": "바이두가 2024년에 최신 발표한 자체 개발 고성능 대언어 모델로, 일반 능력이 뛰어나며, ERNIE Speed보다 더 나은 성능을 보여 특정 시나리오 문제를 더 잘 처리하기 위해 기본 모델로 조정하는 데 적합하며, 뛰어난 추론 성능을 갖추고 있습니다." + }, "Gryphe/MythoMax-L2-13b": { "description": "MythoMax-L2 (13B)는 혁신적인 모델로, 다양한 분야의 응용과 복잡한 작업에 적합합니다." }, @@ -401,6 +434,9 @@ "glm-4-flash": { "description": "GLM-4-Flash는 간단한 작업을 처리하는 데 이상적인 선택으로, 가장 빠른 속도와 가장 저렴한 가격을 자랑합니다." }, + "glm-4-flashx": { + "description": "GLM-4-FlashX는 Flash의 향상된 버전으로, 초고속 추론 속도를 자랑합니다." + }, "glm-4-long": { "description": "GLM-4-Long는 초장 텍스트 입력을 지원하여 기억형 작업 및 대규모 문서 처리에 적합합니다." }, @@ -413,11 +449,11 @@ "glm-4v-plus": { "description": "GLM-4V-Plus는 비디오 콘텐츠 및 다수의 이미지에 대한 이해 능력을 갖추고 있어 다중 모드 작업에 적합합니다." }, - "google/gemini-flash-1.5-exp": { - "description": "Gemini 1.5 Flash 0827은 최적화된 다중 모달 처리 능력을 제공하며, 다양한 복잡한 작업 시나리오에 적합합니다." + "google/gemini-flash-1.5": { + "description": "Gemini 1.5 Flash는 최적화된 다중 모달 처리 능력을 제공하며, 다양한 복잡한 작업 시나리오에 적합합니다." }, - "google/gemini-pro-1.5-exp": { - "description": "Gemini 1.5 Pro 0827은 최신 최적화 기술을 결합하여 더 효율적인 다중 모달 데이터 처리 능력을 제공합니다." + "google/gemini-pro-1.5": { + "description": "Gemini 1.5 Pro는 최신 최적화 기술을 결합하여 더 효율적인 다중 모달 데이터 처리 능력을 제공합니다." }, "google/gemma-2-27b-it": { "description": "Gemma 2는 경량화와 효율적인 설계를 이어갑니다." @@ -491,6 +527,33 @@ "gryphe/mythomax-l2-13b": { "description": "MythoMax l2 13B는 여러 최상위 모델을 통합한 창의성과 지능이 결합된 언어 모델입니다." }, + "hunyuan-code": { + "description": "혼원 최신 코드 생성 모델로, 200B 고품질 코드 데이터로 증훈된 기초 모델을 기반으로 하며, 6개월간 고품질 SFT 데이터 훈련을 거쳤습니다. 컨텍스트 길이는 8K로 증가하였으며, 다섯 가지 언어의 코드 생성 자동 평가 지표에서 상위에 위치하고 있습니다. 다섯 가지 언어의 10개 항목에서 종합 코드 작업의 인공지능 고품질 평가에서 성능이 1위입니다." + }, + "hunyuan-functioncall": { + "description": "혼원 최신 MOE 구조의 FunctionCall 모델로, 고품질 FunctionCall 데이터 훈련을 거쳤으며, 컨텍스트 윈도우는 32K에 도달하고 여러 차원의 평가 지표에서 선두에 있습니다." + }, + "hunyuan-lite": { + "description": "MOE 구조로 업그레이드되었으며, 컨텍스트 윈도우는 256k로 설정되어 NLP, 코드, 수학, 산업 등 여러 평가 집합에서 많은 오픈 소스 모델을 선도하고 있습니다." + }, + "hunyuan-pro": { + "description": "조 단위 매개변수 규모의 MOE-32K 긴 문서 모델입니다. 다양한 벤치마크에서 절대적인 선두 수준에 도달하며, 복잡한 지시 및 추론, 복잡한 수학 능력을 갖추고 있으며, functioncall을 지원하고 다국어 번역, 금융, 법률, 의료 등 분야에서 최적화된 응용을 제공합니다." + }, + "hunyuan-role": { + "description": "혼원 최신 버전의 역할 수행 모델로, 혼원 공식적으로 세밀하게 조정된 훈련을 통해 출시된 역할 수행 모델입니다. 혼원 모델과 역할 수행 시나리오 데이터 세트를 결합하여 증훈하였으며, 역할 수행 시나리오에서 더 나은 기본 성능을 제공합니다." + }, + "hunyuan-standard": { + "description": "더 나은 라우팅 전략을 채택하여 부하 균형 및 전문가 수렴 문제를 완화했습니다. 긴 문서의 경우, 대해잡기 지표가 99.9%에 도달했습니다. MOE-32K는 상대적으로 더 높은 가성비를 제공하며, 효과와 가격의 균형을 맞추면서 긴 텍스트 입력 처리를 가능하게 합니다." + }, + "hunyuan-standard-256K": { + "description": "더 나은 라우팅 전략을 채택하여 부하 균형 및 전문가 수렴 문제를 완화했습니다. 긴 문서의 경우, 대해잡기 지표가 99.9%에 도달했습니다. MOE-256K는 길이와 효과에서 더욱 발전하여 입력 길이를 크게 확장했습니다." + }, + "hunyuan-turbo": { + "description": "혼원 최신 세대 대형 언어 모델의 미리보기 버전으로, 새로운 혼합 전문가 모델(MoE) 구조를 채택하여 hunyuan-pro보다 추론 효율이 더 빠르고 성능이 더 뛰어납니다." + }, + "hunyuan-vision": { + "description": "혼원 최신 다중 모달 모델로, 이미지와 텍스트 입력을 지원하여 텍스트 콘텐츠를 생성합니다." + }, "internlm/internlm2_5-20b-chat": { "description": "혁신적인 오픈 소스 모델 InternLM2.5는 대규모 파라미터를 통해 대화의 지능을 향상시킵니다." }, @@ -634,6 +697,12 @@ "meta-llama/llama-3.1-8b-instruct:free": { "description": "LLaMA 3.1은 다국어 지원을 제공하며, 업계 최고의 생성 모델 중 하나입니다." }, + "meta-llama/llama-3.2-11b-vision-instruct": { + "description": "LLaMA 3.2는 시각 및 텍스트 데이터를 결합한 작업을 처리하기 위해 설계되었습니다. 이미지 설명 및 시각적 질문 응답과 같은 작업에서 뛰어난 성능을 보이며, 언어 생성과 시각적 추론 간의 간극을 넘습니다." + }, + "meta-llama/llama-3.2-90b-vision-instruct": { + "description": "LLaMA 3.2는 시각 및 텍스트 데이터를 결합한 작업을 처리하기 위해 설계되었습니다. 이미지 설명 및 시각적 질문 응답과 같은 작업에서 뛰어난 성능을 보이며, 언어 생성과 시각적 추론 간의 간극을 넘습니다." + }, "meta.llama3-1-405b-instruct-v1:0": { "description": "Meta Llama 3.1 405B Instruct는 Llama 3.1 Instruct 모델 중 가장 크고 강력한 모델로, 고도로 발전된 대화 추론 및 합성 데이터 생성 모델입니다. 특정 분야에서 전문적인 지속적 사전 훈련 또는 미세 조정의 기초로도 사용될 수 있습니다. Llama 3.1이 제공하는 다국어 대형 언어 모델(LLMs)은 8B, 70B 및 405B 크기의 사전 훈련된 지시 조정 생성 모델로 구성되어 있습니다(텍스트 입력/출력). Llama 3.1 지시 조정 텍스트 모델(8B, 70B, 405B)은 다국어 대화 사용 사례에 최적화되어 있으며, 일반 산업 벤치마크 테스트에서 많은 오픈 소스 채팅 모델을 초과했습니다. Llama 3.1은 다양한 언어의 상업적 및 연구 용도로 설계되었습니다. 지시 조정 텍스트 모델은 비서와 유사한 채팅에 적합하며, 사전 훈련 모델은 다양한 자연어 생성 작업에 적응할 수 있습니다. Llama 3.1 모델은 또한 모델의 출력을 활용하여 다른 모델을 개선하는 것을 지원하며, 합성 데이터 생성 및 정제에 사용될 수 있습니다. Llama 3.1은 최적화된 변압기 아키텍처를 사용한 자기 회귀 언어 모델입니다. 조정된 버전은 감독 미세 조정(SFT) 및 인간 피드백이 포함된 강화 학습(RLHF)을 사용하여 인간의 도움 및 안전성 선호에 부합하도록 설계되었습니다." }, diff --git a/locales/ko-KR/providers.json b/locales/ko-KR/providers.json index 54f6bdc52c39..ac97baeb67da 100644 --- a/locales/ko-KR/providers.json +++ b/locales/ko-KR/providers.json @@ -30,6 +30,9 @@ "groq": { "description": "Groq의 LPU 추론 엔진은 최신 독립 대형 언어 모델(LLM) 벤치마크 테스트에서 뛰어난 성능을 보이며, 놀라운 속도와 효율성으로 AI 솔루션의 기준을 재정의하고 있습니다. Groq는 즉각적인 추론 속도의 대표주자로, 클라우드 기반 배포에서 우수한 성능을 보여줍니다." }, + "hunyuan": { + "description": "텐센트가 개발한 대형 언어 모델로, 강력한 한국어 창작 능력과 복잡한 맥락에서의 논리적 추론 능력, 그리고 신뢰할 수 있는 작업 수행 능력을 갖추고 있습니다." + }, "minimax": { "description": "MiniMax는 2021년에 설립된 일반 인공지능 기술 회사로, 사용자와 함께 지능을 공동 창출하는 데 전념하고 있습니다. MiniMax는 다양한 모드의 일반 대형 모델을 독자적으로 개발하였으며, 여기에는 조 단위의 MoE 텍스트 대형 모델, 음성 대형 모델 및 이미지 대형 모델이 포함됩니다. 또한 해마 AI와 같은 응용 프로그램을 출시하였습니다." }, @@ -75,6 +78,9 @@ "upstage": { "description": "Upstage는 Solar LLM 및 문서 AI를 포함하여 다양한 비즈니스 요구를 위한 AI 모델 개발에 집중하고 있으며, 인공지능 일반 지능(AGI)을 실현하는 것을 목표로 하고 있습니다. Chat API를 통해 간단한 대화 에이전트를 생성하고 기능 호출, 번역, 임베딩 및 특정 분야 응용 프로그램을 지원합니다." }, + "wenxin": { + "description": "기업용 원스톱 대형 모델 및 AI 네이티브 애플리케이션 개발 및 서비스 플랫폼으로, 가장 포괄적이고 사용하기 쉬운 생성적 인공지능 모델 개발 및 애플리케이션 개발 전체 프로세스 도구 체인을 제공합니다." + }, "zeroone": { "description": "01.AI는 AI 2.0 시대의 인공지능 기술에 집중하며, '인간 + 인공지능'의 혁신과 응용을 적극적으로 추진하고, 초강력 모델과 고급 AI 기술을 활용하여 인간의 생산성을 향상시키고 기술의 힘을 실현합니다." }, diff --git a/locales/nl-NL/error.json b/locales/nl-NL/error.json index bdbc95004705..85eb0277aa26 100644 --- a/locales/nl-NL/error.json +++ b/locales/nl-NL/error.json @@ -81,6 +81,7 @@ "PluginServerError": "Fout bij serverrespons voor plug-in. Controleer de foutinformatie hieronder voor uw plug-inbeschrijvingsbestand, plug-inconfiguratie of serverimplementatie", "PluginSettingsInvalid": "Deze plug-in moet correct geconfigureerd zijn voordat deze kan worden gebruikt. Controleer of uw configuratie juist is", "ProviderBizError": "Er is een fout opgetreden bij het aanvragen van de {{provider}}-service. Controleer de volgende informatie of probeer het opnieuw.", + "QuotaLimitReached": "Het spijt ons, het huidige tokenverbruik of het aantal verzoeken heeft de quota-limiet van deze sleutel bereikt. Verhoog de quota van deze sleutel of probeer het later opnieuw.", "StreamChunkError": "Fout bij het parseren van het berichtblok van de streamingaanroep. Controleer of de huidige API-interface voldoet aan de standaardnormen, of neem contact op met uw API-leverancier voor advies.", "SubscriptionPlanLimit": "Uw abonnementslimiet is bereikt en u kunt deze functie niet gebruiken. Upgrade naar een hoger plan of koop een resourcepakket om door te gaan met gebruiken.", "UnknownChatFetchError": "Het spijt me, er is een onbekende verzoekfout opgetreden. Controleer de onderstaande informatie of probeer het opnieuw." diff --git a/locales/nl-NL/modelProvider.json b/locales/nl-NL/modelProvider.json index 92f21fcd356e..dcfb00abb34d 100644 --- a/locales/nl-NL/modelProvider.json +++ b/locales/nl-NL/modelProvider.json @@ -112,6 +112,26 @@ "title": "Download specified Ollama model" } }, + "wenxin": { + "accessKey": { + "desc": "Vul de Access Key van het Baidu Qianfan-platform in", + "placeholder": "Qianfan Access Key", + "title": "Access Key" + }, + "checker": { + "desc": "Test of de AccessKey / SecretAccess correct is ingevuld" + }, + "secretKey": { + "desc": "Vul de Secret Key van het Baidu Qianfan-platform in", + "placeholder": "Qianfan Secret Key", + "title": "Secret Key" + }, + "unlock": { + "customRegion": "Aangepaste servicegebied", + "description": "Voer je AccessKey / SecretKey in om de sessie te starten. De applicatie zal je authenticatie-instellingen niet opslaan", + "title": "Gebruik aangepaste Wenxin Yiyan-authenticatie-informatie" + } + }, "zeroone": { "title": "01.AI Nul Een Alles" }, diff --git a/locales/nl-NL/models.json b/locales/nl-NL/models.json index 41a4cb360274..a827879f3726 100644 --- a/locales/nl-NL/models.json +++ b/locales/nl-NL/models.json @@ -32,6 +32,39 @@ "Baichuan4": { "description": "Het model heeft de beste prestaties in het binnenland en overtreft buitenlandse mainstream modellen in kennisencyclopedieën, lange teksten en creatieve generaties. Het heeft ook toonaangevende multimodale capaciteiten en presteert uitstekend in verschillende autoritatieve evaluatiebenchmarks." }, + "ERNIE-3.5-128K": { + "description": "De door Baidu ontwikkelde vlaggenschip grote taalmodel, dat een enorme hoeveelheid Chinese en Engelse gegevens dekt, met krachtige algemene capaciteiten die voldoen aan de meeste eisen voor dialoogvragen, creatieve generatie en plug-in toepassingsscenario's; ondersteunt automatische integratie met de Baidu zoekplug-in, wat de actualiteit van vraag- en antwoordinformatie waarborgt." + }, + "ERNIE-3.5-8K": { + "description": "De door Baidu ontwikkelde vlaggenschip grote taalmodel, dat een enorme hoeveelheid Chinese en Engelse gegevens dekt, met krachtige algemene capaciteiten die voldoen aan de meeste eisen voor dialoogvragen, creatieve generatie en plug-in toepassingsscenario's; ondersteunt automatische integratie met de Baidu zoekplug-in, wat de actualiteit van vraag- en antwoordinformatie waarborgt." + }, + "ERNIE-3.5-8K-Preview": { + "description": "De door Baidu ontwikkelde vlaggenschip grote taalmodel, dat een enorme hoeveelheid Chinese en Engelse gegevens dekt, met krachtige algemene capaciteiten die voldoen aan de meeste eisen voor dialoogvragen, creatieve generatie en plug-in toepassingsscenario's; ondersteunt automatische integratie met de Baidu zoekplug-in, wat de actualiteit van vraag- en antwoordinformatie waarborgt." + }, + "ERNIE-4.0-8K-Latest": { + "description": "Het door Baidu ontwikkelde vlaggenschip van een ultra-groot taalmodel, dat in vergelijking met ERNIE 3.5 een algehele upgrade van de modelcapaciteiten heeft gerealiseerd, en breed toepasbaar is in complexe taken in verschillende domeinen; ondersteunt automatische integratie met de Baidu-zoekplug-in om de actualiteit van vraag- en antwoordinformatie te waarborgen." + }, + "ERNIE-4.0-8K-Preview": { + "description": "Het door Baidu ontwikkelde vlaggenschip van een ultra-groot taalmodel, dat in vergelijking met ERNIE 3.5 een algehele upgrade van de modelcapaciteiten heeft gerealiseerd, en breed toepasbaar is in complexe taken in verschillende domeinen; ondersteunt automatische integratie met de Baidu-zoekplug-in om de actualiteit van vraag- en antwoordinformatie te waarborgen." + }, + "ERNIE-4.0-Turbo-8K": { + "description": "Het door Baidu ontwikkelde vlaggenschip van een ultra-groot taalmodel, dat uitstekende algehele prestaties levert en breed toepasbaar is in complexe taken in verschillende domeinen; ondersteunt automatische integratie met de Baidu-zoekplug-in om de actualiteit van vraag- en antwoordinformatie te waarborgen. In vergelijking met ERNIE 4.0 presteert het beter." + }, + "ERNIE-4.0-Turbo-8K-Preview": { + "description": "Het door Baidu ontwikkelde vlaggenschip van een ultra-groot taalmodel, dat uitstekende algehele prestaties levert en breed toepasbaar is in complexe taken in verschillende domeinen; ondersteunt automatische integratie met de Baidu-zoekplug-in om de actualiteit van vraag- en antwoordinformatie te waarborgen. In vergelijking met ERNIE 4.0 presteert het beter." + }, + "ERNIE-Character-8K": { + "description": "Het door Baidu ontwikkelde verticale taalmodel, geschikt voor toepassingen zoals game NPC's, klantenservice gesprekken en rollenspellen, met een duidelijker en consistenter karakterontwerp, sterkere instructievolgcapaciteiten en betere inferentieprestaties." + }, + "ERNIE-Lite-Pro-128K": { + "description": "Het door Baidu ontwikkelde lichte taalmodel, dat zowel uitstekende modelprestaties als inferentieprestaties biedt, met betere resultaten dan ERNIE Lite, en geschikt is voor inferentie op AI-versnelling kaarten met lage rekencapaciteit." + }, + "ERNIE-Speed-128K": { + "description": "Het door Baidu in 2024 gepresenteerde nieuwe hoge-prestatie taalmodel, met uitstekende algemene capaciteiten, geschikt als basis model voor fine-tuning, om beter specifieke probleemstellingen aan te pakken, met uitstekende inferentieprestaties." + }, + "ERNIE-Speed-Pro-128K": { + "description": "Het door Baidu in 2024 gepresenteerde nieuwe hoge-prestatie taalmodel, met uitstekende algemene capaciteiten, betere resultaten dan ERNIE Speed, en geschikt als basis model voor fine-tuning, om beter specifieke probleemstellingen aan te pakken, met uitstekende inferentieprestaties." + }, "Gryphe/MythoMax-L2-13b": { "description": "MythoMax-L2 (13B) is een innovatief model, geschikt voor toepassingen in meerdere domeinen en complexe taken." }, @@ -401,6 +434,9 @@ "glm-4-flash": { "description": "GLM-4-Flash is de ideale keuze voor het verwerken van eenvoudige taken, met de snelste snelheid en de laagste prijs." }, + "glm-4-flashx": { + "description": "GLM-4-FlashX is een verbeterde versie van Flash met een super snelle inferentiesnelheid." + }, "glm-4-long": { "description": "GLM-4-Long ondersteunt zeer lange tekstinvoer, geschikt voor geheugenintensieve taken en grootschalige documentverwerking." }, @@ -413,11 +449,11 @@ "glm-4v-plus": { "description": "GLM-4V-Plus heeft de capaciteit om video-inhoud en meerdere afbeeldingen te begrijpen, geschikt voor multimodale taken." }, - "google/gemini-flash-1.5-exp": { - "description": "Gemini 1.5 Flash 0827 biedt geoptimaliseerde multimodale verwerkingscapaciteiten, geschikt voor verschillende complexe taakscenario's." + "google/gemini-flash-1.5": { + "description": "Gemini 1.5 Flash biedt geoptimaliseerde multimodale verwerkingscapaciteiten, geschikt voor verschillende complexe taakscenario's." }, - "google/gemini-pro-1.5-exp": { - "description": "Gemini 1.5 Pro 0827 combineert de nieuwste optimalisatietechnologieën voor efficiëntere multimodale gegevensverwerking." + "google/gemini-pro-1.5": { + "description": "Gemini 1.5 Pro combineert de nieuwste optimalisatietechnologieën en biedt efficiëntere multimodale gegevensverwerkingscapaciteiten." }, "google/gemma-2-27b-it": { "description": "Gemma 2 behoudt het ontwerpprincipe van lichtgewicht en efficiëntie." @@ -491,6 +527,33 @@ "gryphe/mythomax-l2-13b": { "description": "MythoMax l2 13B is een taalmodel dat creativiteit en intelligentie combineert door meerdere topmodellen te integreren." }, + "hunyuan-code": { + "description": "Het nieuwste codegeneratiemodel van Hunyuan, getraind op 200B hoogwaardige codegegevens, met een half jaar training op hoogwaardige SFT-gegevens, met een vergroot contextvenster van 8K, en staat bovenaan de automatische evaluatie-indicatoren voor codegeneratie in vijf grote programmeertalen; presteert in de eerste divisie op basis van handmatige kwaliteitsbeoordelingen van 10 aspecten van code-taken in vijf grote talen." + }, + "hunyuan-functioncall": { + "description": "Het nieuwste MOE-architectuur FunctionCall-model van Hunyuan, getraind op hoogwaardige FunctionCall-gegevens, met een contextvenster van 32K, en staat voorop in meerdere dimensies van evaluatie-indicatoren." + }, + "hunyuan-lite": { + "description": "Geüpgraded naar een MOE-structuur, met een contextvenster van 256k, en leidt in verschillende evaluatiesets op het gebied van NLP, code, wiskunde en industrie ten opzichte van vele open-source modellen." + }, + "hunyuan-pro": { + "description": "Een MOE-32K lange tekstmodel met triljoenen parameters. Bereikt een absoluut leidend niveau op verschillende benchmarks, met complexe instructies en redenering, beschikt over complexe wiskundige capaciteiten, ondersteunt function calls, en is geoptimaliseerd voor toepassingen in meertalige vertaling, financiële, juridische en medische gebieden." + }, + "hunyuan-role": { + "description": "Het nieuwste rolspelmodel van Hunyuan, een rolspelmodel dat is ontwikkeld door de officiële fine-tuning training van Hunyuan, dat is getraind op basis van rolspel-scenario datasets, en betere basisprestaties biedt in rolspel-scenario's." + }, + "hunyuan-standard": { + "description": "Maakt gebruik van een betere routeringsstrategie en verlicht tegelijkertijd de problemen van load balancing en expert convergentie. Voor lange teksten bereikt de naald in een hooiberg-index 99,9%. MOE-32K biedt een relatief betere prijs-kwaliteitverhouding, en kan lange tekstinvoer verwerken terwijl het effect en prijs in balans houdt." + }, + "hunyuan-standard-256K": { + "description": "Maakt gebruik van een betere routeringsstrategie en verlicht tegelijkertijd de problemen van load balancing en expert convergentie. Voor lange teksten bereikt de naald in een hooiberg-index 99,9%. MOE-256K doorbreekt verder in lengte en effectiviteit, waardoor de invoerlengte aanzienlijk wordt vergroot." + }, + "hunyuan-turbo": { + "description": "Een previewversie van het nieuwe generatie grote taalmodel van Hunyuan, met een nieuwe hybride expertmodel (MoE) structuur, die sneller inferentie-efficiëntie biedt en betere prestaties levert dan hunyan-pro." + }, + "hunyuan-vision": { + "description": "Het nieuwste multimodale model van Hunyuan, ondersteunt het genereren van tekstinhoud op basis van afbeelding + tekstinvoer." + }, "internlm/internlm2_5-20b-chat": { "description": "Het innovatieve open-source model InternLM2.5 verhoogt de gespreksintelligentie door een groot aantal parameters." }, @@ -634,6 +697,12 @@ "meta-llama/llama-3.1-8b-instruct:free": { "description": "LLaMA 3.1 biedt ondersteuning voor meerdere talen en is een van de toonaangevende generatiemodellen in de industrie." }, + "meta-llama/llama-3.2-11b-vision-instruct": { + "description": "LLaMA 3.2 is ontworpen voor taken die visuele en tekstuele gegevens combineren. Het presteert uitstekend in taken zoals afbeeldingsbeschrijving en visuele vraag-en-antwoord, en overbrugt de kloof tussen taalgeneratie en visuele redenering." + }, + "meta-llama/llama-3.2-90b-vision-instruct": { + "description": "LLaMA 3.2 is ontworpen voor taken die visuele en tekstuele gegevens combineren. Het presteert uitstekend in taken zoals afbeeldingsbeschrijving en visuele vraag-en-antwoord, en overbrugt de kloof tussen taalgeneratie en visuele redenering." + }, "meta.llama3-1-405b-instruct-v1:0": { "description": "Meta Llama 3.1 405B Instruct is het grootste en krachtigste model binnen het Llama 3.1 Instruct-model, een geavanceerd model voor conversatie-inferentie en synthetische datageneratie, dat ook kan worden gebruikt als basis voor gespecialiseerde continue pre-training of fine-tuning in specifieke domeinen. De meertalige grote taalmodellen (LLMs) die Llama 3.1 biedt, zijn een set van voorgetrainde, instructie-geoptimaliseerde generatieve modellen, waaronder 8B, 70B en 405B in grootte (tekstinvoer/uitvoer). De tekstmodellen van Llama 3.1, die zijn geoptimaliseerd voor meertalige conversatiegebruik, overtreffen veel beschikbare open-source chatmodellen in gangbare industriële benchmarktests. Llama 3.1 is ontworpen voor commercieel en onderzoeksgebruik in meerdere talen. De instructie-geoptimaliseerde tekstmodellen zijn geschikt voor assistentachtige chats, terwijl de voorgetrainde modellen zich kunnen aanpassen aan verschillende taken voor natuurlijke taalgeneratie. Het Llama 3.1-model ondersteunt ook het verbeteren van andere modellen door gebruik te maken van de output van zijn modellen, inclusief synthetische datageneratie en verfijning. Llama 3.1 is een autoregressief taalmodel dat gebruikmaakt van een geoptimaliseerde transformer-architectuur. De afgestelde versies gebruiken supervisie-finetuning (SFT) en versterkend leren met menselijke feedback (RLHF) om te voldoen aan menselijke voorkeuren voor behulpzaamheid en veiligheid." }, diff --git a/locales/nl-NL/providers.json b/locales/nl-NL/providers.json index 79b4561a2dee..c5e6198bb1d1 100644 --- a/locales/nl-NL/providers.json +++ b/locales/nl-NL/providers.json @@ -30,6 +30,9 @@ "groq": { "description": "De LPU-inferentie-engine van Groq presteert uitstekend in de nieuwste onafhankelijke benchmarktests voor grote taalmodellen (LLM), en herdefinieert de normen voor AI-oplossingen met zijn verbazingwekkende snelheid en efficiëntie. Groq is een vertegenwoordiger van onmiddellijke inferentiesnelheid en toont goede prestaties in cloudgebaseerde implementaties." }, + "hunyuan": { + "description": "Een door Tencent ontwikkeld groot taalmodel, dat beschikt over krachtige Chinese creatiecapaciteiten, logische redeneervaardigheden in complexe contexten, en betrouwbare taakuitvoeringscapaciteiten." + }, "minimax": { "description": "MiniMax is een algemeen kunstmatige intelligentietechnologiebedrijf dat in 2021 is opgericht, en zich richt op co-creatie van intelligentie met gebruikers. MiniMax heeft verschillende multimodale algemene grote modellen ontwikkeld, waaronder een MoE-tekstgrootmodel met triljoenen parameters, een spraakgrootmodel en een afbeeldingsgrootmodel. Ze hebben ook toepassingen zoals Conch AI gelanceerd." }, @@ -75,6 +78,9 @@ "upstage": { "description": "Upstage richt zich op het ontwikkelen van AI-modellen voor verschillende zakelijke behoeften, waaronder Solar LLM en document AI, met als doel het realiseren van kunstmatige algemene intelligentie (AGI). Het creëert eenvoudige dialoogagenten via de Chat API en ondersteunt functionele aanroepen, vertalingen, insluitingen en specifieke domeintoepassingen." }, + "wenxin": { + "description": "Een enterprise-grade, alles-in-één platform voor de ontwikkeling en service van grote modellen en AI-native applicaties, dat de meest uitgebreide en gebruiksvriendelijke toolchain biedt voor de ontwikkeling van generatieve kunstmatige intelligentiemodellen en applicaties." + }, "zeroone": { "description": "01.AI richt zich op kunstmatige intelligentietechnologie in het tijdperk van AI 2.0, en bevordert sterk de innovatie en toepassing van 'mens + kunstmatige intelligentie', met behulp van krachtige modellen en geavanceerde AI-technologie om de productiviteit van de mens te verbeteren en technologische capaciteiten te realiseren." }, diff --git a/locales/pl-PL/error.json b/locales/pl-PL/error.json index a2be5ffc840c..357a388294b8 100644 --- a/locales/pl-PL/error.json +++ b/locales/pl-PL/error.json @@ -81,6 +81,7 @@ "PluginServerError": "Błąd zwrócony przez serwer wtyczki. Proszę sprawdź plik opisowy wtyczki, konfigurację wtyczki lub implementację serwera zgodnie z poniższymi informacjami o błędzie", "PluginSettingsInvalid": "Ta wtyczka wymaga poprawnej konfiguracji przed użyciem. Proszę sprawdź, czy Twoja konfiguracja jest poprawna", "ProviderBizError": "Wystąpił błąd usługi {{provider}}, proszę sprawdzić poniższe informacje lub spróbować ponownie", + "QuotaLimitReached": "Przykro nam, bieżące zużycie tokenów lub liczba żądań osiągnęła limit kwoty dla tego klucza. Proszę zwiększyć limit kwoty dla tego klucza lub spróbować ponownie później.", "StreamChunkError": "Błąd analizy bloku wiadomości w żądaniu strumieniowym. Proszę sprawdzić, czy aktualny interfejs API jest zgodny z normami, lub skontaktować się z dostawcą API w celu uzyskania informacji.", "SubscriptionPlanLimit": "Wykorzystałeś limit swojego abonamentu i nie możesz korzystać z tej funkcji. Proszę uaktualnić do wyższego planu lub zakupić dodatkowy pakiet zasobów, aby kontynuować korzystanie.", "UnknownChatFetchError": "Przykro nam, wystąpił nieznany błąd żądania. Proszę sprawdzić poniższe informacje lub spróbować ponownie." diff --git a/locales/pl-PL/modelProvider.json b/locales/pl-PL/modelProvider.json index 75f611bfdc32..ccf427e3acc8 100644 --- a/locales/pl-PL/modelProvider.json +++ b/locales/pl-PL/modelProvider.json @@ -112,6 +112,26 @@ "title": "Download specified Ollama model" } }, + "wenxin": { + "accessKey": { + "desc": "Wprowadź Access Key z platformy Baidu Qianfan", + "placeholder": "Access Key Qianfan", + "title": "Access Key" + }, + "checker": { + "desc": "Sprawdź, czy AccessKey / SecretAccess zostały poprawnie wprowadzone" + }, + "secretKey": { + "desc": "Wprowadź Secret Key z platformy Baidu Qianfan", + "placeholder": "Secret Key Qianfan", + "title": "Secret Key" + }, + "unlock": { + "customRegion": "Niestandardowy obszar usług", + "description": "Wprowadź swój AccessKey / SecretKey, aby rozpocząć sesję. Aplikacja nie zapisuje twojej konfiguracji uwierzytelniania", + "title": "Użyj niestandardowych informacji uwierzytelniających Wenxin Yiyan" + } + }, "zeroone": { "title": "01.AI Zero Jeden Wszystko" }, diff --git a/locales/pl-PL/models.json b/locales/pl-PL/models.json index 9f6128cc9058..24bbe2a7596a 100644 --- a/locales/pl-PL/models.json +++ b/locales/pl-PL/models.json @@ -32,6 +32,39 @@ "Baichuan4": { "description": "Model o najwyższej wydajności w kraju, przewyższający zagraniczne modele w zadaniach związanych z encyklopedią, długimi tekstami i generowaniem treści w języku chińskim. Posiada również wiodące w branży zdolności multimodalne, osiągając doskonałe wyniki w wielu autorytatywnych testach." }, + "ERNIE-3.5-128K": { + "description": "Flagowy model dużego języka opracowany przez Baidu, obejmujący ogromne zbiory danych w języku chińskim i angielskim, charakteryzujący się silnymi zdolnościami ogólnymi, zdolny do spełnienia wymagań w większości scenariuszy związanych z pytaniami i odpowiedziami, generowaniem treści oraz aplikacjami wtyczek; wspiera automatyczne połączenie z wtyczką wyszukiwania Baidu, zapewniając aktualność informacji w odpowiedziach." + }, + "ERNIE-3.5-8K": { + "description": "Flagowy model dużego języka opracowany przez Baidu, obejmujący ogromne zbiory danych w języku chińskim i angielskim, charakteryzujący się silnymi zdolnościami ogólnymi, zdolny do spełnienia wymagań w większości scenariuszy związanych z pytaniami i odpowiedziami, generowaniem treści oraz aplikacjami wtyczek; wspiera automatyczne połączenie z wtyczką wyszukiwania Baidu, zapewniając aktualność informacji w odpowiedziach." + }, + "ERNIE-3.5-8K-Preview": { + "description": "Flagowy model dużego języka opracowany przez Baidu, obejmujący ogromne zbiory danych w języku chińskim i angielskim, charakteryzujący się silnymi zdolnościami ogólnymi, zdolny do spełnienia wymagań w większości scenariuszy związanych z pytaniami i odpowiedziami, generowaniem treści oraz aplikacjami wtyczek; wspiera automatyczne połączenie z wtyczką wyszukiwania Baidu, zapewniając aktualność informacji w odpowiedziach." + }, + "ERNIE-4.0-8K-Latest": { + "description": "Flagowy model ultra dużego języka opracowany przez Baidu, w porównaniu do ERNIE 3.5, oferujący kompleksową aktualizację możliwości modelu, szeroko stosowany w złożonych scenariuszach w różnych dziedzinach; wspiera automatyczne połączenie z wtyczką wyszukiwania Baidu, zapewniając aktualność informacji." + }, + "ERNIE-4.0-8K-Preview": { + "description": "Flagowy model ultra dużego języka opracowany przez Baidu, w porównaniu do ERNIE 3.5, oferujący kompleksową aktualizację możliwości modelu, szeroko stosowany w złożonych scenariuszach w różnych dziedzinach; wspiera automatyczne połączenie z wtyczką wyszukiwania Baidu, zapewniając aktualność informacji." + }, + "ERNIE-4.0-Turbo-8K": { + "description": "Flagowy model ultra dużego języka opracowany przez Baidu, charakteryzujący się doskonałymi wynikami ogólnymi, szeroko stosowany w złożonych scenariuszach w różnych dziedzinach; wspiera automatyczne połączenie z wtyczką wyszukiwania Baidu, zapewniając aktualność informacji. W porównaniu do ERNIE 4.0, oferuje lepsze wyniki wydajności." + }, + "ERNIE-4.0-Turbo-8K-Preview": { + "description": "Flagowy model ultra dużego języka opracowany przez Baidu, charakteryzujący się doskonałymi wynikami ogólnymi, szeroko stosowany w złożonych scenariuszach w różnych dziedzinach; wspiera automatyczne połączenie z wtyczką wyszukiwania Baidu, zapewniając aktualność informacji. W porównaniu do ERNIE 4.0, oferuje lepsze wyniki wydajności." + }, + "ERNIE-Character-8K": { + "description": "Model dużego języka opracowany przez Baidu, skoncentrowany na specyficznych scenariuszach, odpowiedni do zastosowań takich jak NPC w grach, rozmowy z obsługą klienta, odgrywanie ról w dialogach, charakteryzujący się wyraźnym i spójnym stylem postaci, silniejszą zdolnością do przestrzegania poleceń oraz lepszą wydajnością wnioskowania." + }, + "ERNIE-Lite-Pro-128K": { + "description": "Lekki model dużego języka opracowany przez Baidu, łączący doskonałe wyniki modelu z wydajnością wnioskowania, oferujący lepsze wyniki niż ERNIE Lite, odpowiedni do użycia w niskomocowych kartach przyspieszających AI." + }, + "ERNIE-Speed-128K": { + "description": "Najnowocześniejszy model dużego języka opracowany przez Baidu w 2024 roku, charakteryzujący się doskonałymi zdolnościami ogólnymi, odpowiedni jako model bazowy do dalszego dostosowywania, lepiej radzący sobie z problemami w specyficznych scenariuszach, a także zapewniający doskonałą wydajność wnioskowania." + }, + "ERNIE-Speed-Pro-128K": { + "description": "Najnowocześniejszy model dużego języka opracowany przez Baidu w 2024 roku, charakteryzujący się doskonałymi zdolnościami ogólnymi, oferujący lepsze wyniki niż ERNIE Speed, odpowiedni jako model bazowy do dalszego dostosowywania, lepiej radzący sobie z problemami w specyficznych scenariuszach, a także zapewniający doskonałą wydajność wnioskowania." + }, "Gryphe/MythoMax-L2-13b": { "description": "MythoMax-L2 (13B) to innowacyjny model, idealny do zastosowań w wielu dziedzinach i złożonych zadań." }, @@ -401,6 +434,9 @@ "glm-4-flash": { "description": "GLM-4-Flash to idealny wybór do przetwarzania prostych zadań, najszybszy i najtańszy." }, + "glm-4-flashx": { + "description": "GLM-4-FlashX to ulepszona wersja Flash, charakteryzująca się niezwykle szybkim czasem wnioskowania." + }, "glm-4-long": { "description": "GLM-4-Long obsługuje ultra-długie wejścia tekstowe, odpowiednie do zadań pamięciowych i przetwarzania dużych dokumentów." }, @@ -413,11 +449,11 @@ "glm-4v-plus": { "description": "GLM-4V-Plus ma zdolność rozumienia treści wideo oraz wielu obrazów, odpowiedni do zadań multimodalnych." }, - "google/gemini-flash-1.5-exp": { - "description": "Gemini 1.5 Flash 0827 oferuje zoptymalizowane możliwości przetwarzania multimodalnego, odpowiednie do różnych złożonych zadań." + "google/gemini-flash-1.5": { + "description": "Gemini 1.5 Flash oferuje zoptymalizowane możliwości przetwarzania multimodalnego, odpowiednie do różnych złożonych scenariuszy zadań." }, - "google/gemini-pro-1.5-exp": { - "description": "Gemini 1.5 Pro 0827 łączy najnowsze technologie optymalizacji, oferując bardziej efektywne przetwarzanie danych multimodalnych." + "google/gemini-pro-1.5": { + "description": "Gemini 1.5 Pro łączy najnowsze technologie optymalizacji, oferując bardziej efektywne przetwarzanie danych multimodalnych." }, "google/gemma-2-27b-it": { "description": "Gemma 2 kontynuuje ideę lekkiego i wydajnego projektowania." @@ -491,6 +527,33 @@ "gryphe/mythomax-l2-13b": { "description": "MythoMax l2 13B to model językowy łączący kreatywność i inteligencję, zintegrowany z wieloma wiodącymi modelami." }, + "hunyuan-code": { + "description": "Najnowocześniejszy model generowania kodu Hunyuan, przeszkolony na bazie 200B wysokiej jakości danych kodu, z półrocznym treningiem na wysokiej jakości danych SFT, z wydłużonym oknem kontekstowym do 8K, zajmującym czołowe miejsca w automatycznych wskaźnikach oceny generowania kodu w pięciu językach; w ocenie jakościowej zadań kodowych w pięciu językach, osiąga wyniki w pierwszej lidze." + }, + "hunyuan-functioncall": { + "description": "Najnowocześniejszy model FunctionCall w architekturze MOE Hunyuan, przeszkolony na wysokiej jakości danych FunctionCall, z oknem kontekstowym o długości 32K, osiągający wiodące wyniki w wielu wymiarach oceny." + }, + "hunyuan-lite": { + "description": "Zaktualizowana do struktury MOE, z oknem kontekstowym o długości 256k, prowadzi w wielu zestawach testowych w NLP, kodowaniu, matematyce i innych dziedzinach w porównaniu do wielu modeli open source." + }, + "hunyuan-pro": { + "description": "Model długiego tekstu MOE-32K o skali bilionów parametrów. Osiąga absolutnie wiodący poziom w różnych benchmarkach, obsługując złożone instrukcje i wnioskowanie, posiadając zaawansowane umiejętności matematyczne, wspierając wywołania funkcji, z optymalizacjami w obszarach takich jak tłumaczenia wielojęzyczne, prawo finansowe i medyczne." + }, + "hunyuan-role": { + "description": "Najnowocześniejszy model odgrywania ról Hunyuan, stworzony przez oficjalne dostosowanie i trening Hunyuan, oparty na modelu Hunyuan i zestawie danych scenariuszy odgrywania ról, oferujący lepsze podstawowe wyniki w scenariuszach odgrywania ról." + }, + "hunyuan-standard": { + "description": "Zastosowano lepszą strategię routingu, jednocześnie łagodząc problemy z równoważeniem obciążenia i zbieżnością ekspertów. W przypadku długich tekstów wskaźnik 'znalezienia igły w stogu siana' osiąga 99,9%. MOE-32K oferuje lepszy stosunek jakości do ceny, równoważąc efektywność i cenę, umożliwiając przetwarzanie długich tekstów." + }, + "hunyuan-standard-256K": { + "description": "Zastosowano lepszą strategię routingu, jednocześnie łagodząc problemy z równoważeniem obciążenia i zbieżnością ekspertów. W przypadku długich tekstów wskaźnik 'znalezienia igły w stogu siana' osiąga 99,9%. MOE-256K dokonuje dalszych przełomów w długości i efektywności, znacznie rozszerzając możliwą długość wejścia." + }, + "hunyuan-turbo": { + "description": "Hunyuan to nowa generacja dużego modelu językowego w wersji próbnej, wykorzystująca nową strukturę modelu mieszanych ekspertów (MoE), która w porównaniu do hunyuan-pro charakteryzuje się szybszą efektywnością wnioskowania i lepszymi wynikami." + }, + "hunyuan-vision": { + "description": "Najnowocześniejszy model multimodalny Hunyuan, wspierający generowanie treści tekstowych na podstawie obrazów i tekstu." + }, "internlm/internlm2_5-20b-chat": { "description": "Innowacyjny model open source InternLM2.5, dzięki dużej liczbie parametrów, zwiększa inteligencję dialogową." }, @@ -634,6 +697,12 @@ "meta-llama/llama-3.1-8b-instruct:free": { "description": "LLaMA 3.1 oferuje wsparcie dla wielu języków i jest jednym z wiodących modeli generacyjnych w branży." }, + "meta-llama/llama-3.2-11b-vision-instruct": { + "description": "LLaMA 3.2 jest zaprojektowana do przetwarzania zadań łączących dane wizualne i tekstowe. Wykazuje doskonałe wyniki w zadaniach takich jak opisywanie obrazów i wizualne pytania i odpowiedzi, przekraczając granice między generowaniem języka a wnioskowaniem wizualnym." + }, + "meta-llama/llama-3.2-90b-vision-instruct": { + "description": "LLaMA 3.2 jest zaprojektowana do przetwarzania zadań łączących dane wizualne i tekstowe. Wykazuje doskonałe wyniki w zadaniach takich jak opisywanie obrazów i wizualne pytania i odpowiedzi, przekraczając granice między generowaniem języka a wnioskowaniem wizualnym." + }, "meta.llama3-1-405b-instruct-v1:0": { "description": "Meta Llama 3.1 405B Instruct to największy i najpotężniejszy model w rodzinie modeli Llama 3.1 Instruct. Jest to wysoko zaawansowany model do dialogów, wnioskowania i generowania danych, który może być również używany jako podstawa do specjalistycznego, ciągłego wstępnego szkolenia lub dostosowywania w określonych dziedzinach. Llama 3.1 oferuje wielojęzyczne duże modele językowe (LLM), które są zestawem wstępnie wytrenowanych, dostosowanych do instrukcji modeli generacyjnych, obejmujących rozmiary 8B, 70B i 405B (wejście/wyjście tekstowe). Modele tekstowe Llama 3.1 dostosowane do instrukcji (8B, 70B, 405B) zostały zoptymalizowane do zastosowań w wielojęzycznych dialogach i przewyższają wiele dostępnych modeli czatu open source w powszechnych testach branżowych. Llama 3.1 jest zaprojektowana do użytku komercyjnego i badawczego w wielu językach. Modele tekstowe dostosowane do instrukcji nadają się do czatu w stylu asystenta, podczas gdy modele wstępnie wytrenowane mogą być dostosowane do różnych zadań generowania języka naturalnego. Modele Llama 3.1 wspierają również wykorzystanie ich wyjść do poprawy innych modeli, w tym generowania danych syntetycznych i udoskonalania. Llama 3.1 jest modelem językowym autoregresywnym opartym na zoptymalizowanej architekturze transformatora. Dostosowane wersje wykorzystują nadzorowane dostosowywanie (SFT) oraz uczenie się ze wzmocnieniem z ludzkim feedbackiem (RLHF), aby odpowiadać ludzkim preferencjom dotyczącym pomocności i bezpieczeństwa." }, diff --git a/locales/pl-PL/providers.json b/locales/pl-PL/providers.json index 6be7bb5ea3cb..bf4ce6f1b46a 100644 --- a/locales/pl-PL/providers.json +++ b/locales/pl-PL/providers.json @@ -30,6 +30,9 @@ "groq": { "description": "Silnik inferencyjny LPU firmy Groq wyróżnia się w najnowszych niezależnych testach benchmarkowych dużych modeli językowych (LLM), redefiniując standardy rozwiązań AI dzięki niesamowitej szybkości i wydajności. Groq jest reprezentantem natychmiastowej szybkości inferencji, wykazując dobrą wydajność w wdrożeniach opartych na chmurze." }, + "hunyuan": { + "description": "Model językowy opracowany przez Tencent, który posiada potężne zdolności twórcze w języku chińskim, umiejętność logicznego wnioskowania w złożonych kontekstach oraz niezawodne zdolności wykonawcze w zadaniach." + }, "minimax": { "description": "MiniMax to firma technologiczna zajmująca się ogólną sztuczną inteligencją, założona w 2021 roku, dążąca do współtworzenia inteligencji z użytkownikami. MiniMax opracowało różne modele dużych modeli o różnych modalnościach, w tym model tekstowy MoE z bilionem parametrów, model głosowy oraz model obrazowy. Wprowadziło również aplikacje takie jak Conch AI." }, @@ -75,6 +78,9 @@ "upstage": { "description": "Upstage koncentruje się na opracowywaniu modeli AI dla różnych potrzeb biznesowych, w tym Solar LLM i dokumentów AI, mając na celu osiągnięcie sztucznej ogólnej inteligencji (AGI). Umożliwia tworzenie prostych agentów konwersacyjnych za pomocą Chat API oraz wspiera wywołania funkcji, tłumaczenia, osadzenia i zastosowania w określonych dziedzinach." }, + "wenxin": { + "description": "Platforma do rozwoju i usług aplikacji AI oraz dużych modeli w skali przedsiębiorstwa, oferująca najbardziej kompleksowy i łatwy w użyciu zestaw narzędzi do rozwoju modeli sztucznej inteligencji generatywnej oraz całego procesu tworzenia aplikacji." + }, "zeroone": { "description": "01.AI koncentruje się na technologiach sztucznej inteligencji w erze AI 2.0, intensywnie promując innowacje i zastosowania „człowiek + sztuczna inteligencja”, wykorzystując potężne modele i zaawansowane technologie AI w celu zwiększenia wydajności ludzkiej produkcji i realizacji technologicznego wsparcia." }, diff --git a/locales/pt-BR/error.json b/locales/pt-BR/error.json index dc9479daa9f1..a6da544575be 100644 --- a/locales/pt-BR/error.json +++ b/locales/pt-BR/error.json @@ -81,6 +81,7 @@ "PluginServerError": "Erro na resposta do servidor do plugin. Verifique o arquivo de descrição do plugin, a configuração do plugin ou a implementação do servidor de acordo com as informações de erro abaixo", "PluginSettingsInvalid": "Este plugin precisa ser configurado corretamente antes de ser usado. Verifique se sua configuração está correta", "ProviderBizError": "Erro no serviço {{provider}} solicitado. Por favor, verifique as informações abaixo ou tente novamente.", + "QuotaLimitReached": "Desculpe, o uso atual de tokens ou o número de solicitações atingiu o limite de quota da chave. Por favor, aumente a quota dessa chave ou tente novamente mais tarde.", "StreamChunkError": "Erro de análise do bloco de mensagem da solicitação em fluxo. Verifique se a interface da API atual está em conformidade com os padrões ou entre em contato com seu fornecedor de API para mais informações.", "SubscriptionPlanLimit": "Você atingiu o limite de sua assinatura e não pode usar essa função. Por favor, faça upgrade para um plano superior ou compre um pacote de recursos para continuar usando.", "UnknownChatFetchError": "Desculpe, ocorreu um erro desconhecido na solicitação. Por favor, verifique as informações abaixo ou tente novamente." diff --git a/locales/pt-BR/modelProvider.json b/locales/pt-BR/modelProvider.json index 2fda52a1e796..48d56c9a0342 100644 --- a/locales/pt-BR/modelProvider.json +++ b/locales/pt-BR/modelProvider.json @@ -112,6 +112,26 @@ "title": "Download specified Ollama model" } }, + "wenxin": { + "accessKey": { + "desc": "Insira a Access Key da plataforma Qianfan do Baidu", + "placeholder": "Access Key Qianfan", + "title": "Access Key" + }, + "checker": { + "desc": "Teste se a AccessKey / SecretAccess está preenchida corretamente" + }, + "secretKey": { + "desc": "Insira a Secret Key da plataforma Qianfan do Baidu", + "placeholder": "Secret Key Qianfan", + "title": "Secret Key" + }, + "unlock": { + "customRegion": "Região de serviço personalizada", + "description": "Insira sua AccessKey / SecretKey para iniciar a sessão. O aplicativo não registrará suas configurações de autenticação", + "title": "Usar informações de autenticação personalizadas do Wenxin Yiyan" + } + }, "zeroone": { "title": "01.AI Zero e Um" }, diff --git a/locales/pt-BR/models.json b/locales/pt-BR/models.json index 64f611c842af..1277d3f805b3 100644 --- a/locales/pt-BR/models.json +++ b/locales/pt-BR/models.json @@ -32,6 +32,39 @@ "Baichuan4": { "description": "O modelo é o melhor do país, superando modelos estrangeiros em tarefas em chinês, como enciclopédias, textos longos e criação de conteúdo. Também possui capacidades multimodais líderes na indústria, com desempenho excepcional em várias avaliações de referência." }, + "ERNIE-3.5-128K": { + "description": "Modelo de linguagem de grande escala desenvolvido pela Baidu, cobrindo uma vasta quantidade de dados em chinês e inglês, com poderosas capacidades gerais, capaz de atender à maioria das demandas de perguntas e respostas em diálogos, geração de conteúdo e aplicações de plugins; suporta integração automática com o plugin de busca da Baidu, garantindo a atualidade das informações nas respostas." + }, + "ERNIE-3.5-8K": { + "description": "Modelo de linguagem de grande escala desenvolvido pela Baidu, cobrindo uma vasta quantidade de dados em chinês e inglês, com poderosas capacidades gerais, capaz de atender à maioria das demandas de perguntas e respostas em diálogos, geração de conteúdo e aplicações de plugins; suporta integração automática com o plugin de busca da Baidu, garantindo a atualidade das informações nas respostas." + }, + "ERNIE-3.5-8K-Preview": { + "description": "Modelo de linguagem de grande escala desenvolvido pela Baidu, cobrindo uma vasta quantidade de dados em chinês e inglês, com poderosas capacidades gerais, capaz de atender à maioria das demandas de perguntas e respostas em diálogos, geração de conteúdo e aplicações de plugins; suporta integração automática com o plugin de busca da Baidu, garantindo a atualidade das informações nas respostas." + }, + "ERNIE-4.0-8K-Latest": { + "description": "Modelo de linguagem ultra grande escala desenvolvido pela Baidu, que em comparação com o ERNIE 3.5, apresenta uma atualização completa nas capacidades do modelo, amplamente aplicável em cenários de tarefas complexas em diversas áreas; suporta integração automática com o plugin de busca da Baidu, garantindo a atualidade das informações de perguntas e respostas." + }, + "ERNIE-4.0-8K-Preview": { + "description": "Modelo de linguagem ultra grande escala desenvolvido pela Baidu, que em comparação com o ERNIE 3.5, apresenta uma atualização completa nas capacidades do modelo, amplamente aplicável em cenários de tarefas complexas em diversas áreas; suporta integração automática com o plugin de busca da Baidu, garantindo a atualidade das informações de perguntas e respostas." + }, + "ERNIE-4.0-Turbo-8K": { + "description": "Modelo de linguagem ultra grande escala desenvolvido pela Baidu, com desempenho excepcional em resultados gerais, amplamente aplicável em cenários de tarefas complexas em diversas áreas; suporta integração automática com o plugin de busca da Baidu, garantindo a atualidade das informações de perguntas e respostas. Em comparação com o ERNIE 4.0, apresenta desempenho superior." + }, + "ERNIE-4.0-Turbo-8K-Preview": { + "description": "Modelo de linguagem ultra grande escala desenvolvido pela Baidu, com desempenho excepcional em resultados gerais, amplamente aplicável em cenários de tarefas complexas em diversas áreas; suporta integração automática com o plugin de busca da Baidu, garantindo a atualidade das informações de perguntas e respostas. Em comparação com o ERNIE 4.0, apresenta desempenho superior." + }, + "ERNIE-Character-8K": { + "description": "Modelo de linguagem vertical desenvolvido pela Baidu, adequado para aplicações como NPCs em jogos, diálogos de atendimento ao cliente e interpretação de personagens em diálogos, com estilos de personagem mais distintos e consistentes, maior capacidade de seguir instruções e desempenho de inferência superior." + }, + "ERNIE-Lite-Pro-128K": { + "description": "Modelo de linguagem leve desenvolvido pela Baidu, que combina excelente desempenho do modelo com eficiência de inferência, apresentando resultados superiores ao ERNIE Lite, adequado para uso em inferência com placas de aceleração de IA de baixo poder computacional." + }, + "ERNIE-Speed-128K": { + "description": "Modelo de linguagem de alto desempenho desenvolvido pela Baidu, lançado em 2024, com capacidades gerais excepcionais, adequado como modelo base para ajuste fino, melhorando o tratamento de problemas em cenários específicos, enquanto mantém excelente desempenho de inferência." + }, + "ERNIE-Speed-Pro-128K": { + "description": "Modelo de linguagem de alto desempenho desenvolvido pela Baidu, lançado em 2024, com capacidades gerais excepcionais, apresentando resultados superiores ao ERNIE Speed, adequado como modelo base para ajuste fino, melhorando o tratamento de problemas em cenários específicos, enquanto mantém excelente desempenho de inferência." + }, "Gryphe/MythoMax-L2-13b": { "description": "MythoMax-L2 (13B) é um modelo inovador, adequado para aplicações em múltiplas áreas e tarefas complexas." }, @@ -401,6 +434,9 @@ "glm-4-flash": { "description": "O GLM-4-Flash é a escolha ideal para tarefas simples, com a maior velocidade e o preço mais acessível." }, + "glm-4-flashx": { + "description": "GLM-4-FlashX é uma versão aprimorada do Flash, com velocidade de inferência super rápida." + }, "glm-4-long": { "description": "O GLM-4-Long suporta entradas de texto superlongas, adequado para tarefas de memória e processamento de documentos em larga escala." }, @@ -413,11 +449,11 @@ "glm-4v-plus": { "description": "O GLM-4V-Plus possui a capacidade de entender conteúdo de vídeo e múltiplas imagens, adequado para tarefas multimodais." }, - "google/gemini-flash-1.5-exp": { - "description": "Gemini 1.5 Flash 0827 oferece capacidade de processamento multimodal otimizada, adequada para uma variedade de cenários de tarefas complexas." + "google/gemini-flash-1.5": { + "description": "Gemini 1.5 Flash oferece capacidades de processamento multimodal otimizadas, adequadas para uma variedade de cenários de tarefas complexas." }, - "google/gemini-pro-1.5-exp": { - "description": "Gemini 1.5 Pro 0827 combina as mais recentes tecnologias de otimização, proporcionando uma capacidade de processamento de dados multimodal mais eficiente." + "google/gemini-pro-1.5": { + "description": "Gemini 1.5 Pro combina as mais recentes tecnologias de otimização, proporcionando uma capacidade de processamento de dados multimodais mais eficiente." }, "google/gemma-2-27b-it": { "description": "Gemma 2 continua a filosofia de design leve e eficiente." @@ -491,6 +527,33 @@ "gryphe/mythomax-l2-13b": { "description": "MythoMax l2 13B é um modelo de linguagem que combina criatividade e inteligência, integrando vários modelos de ponta." }, + "hunyuan-code": { + "description": "O mais recente modelo de geração de código Hunyuan, treinado com 200B de dados de código de alta qualidade, com seis meses de treinamento de dados SFT de alta qualidade, aumentando o comprimento da janela de contexto para 8K, destacando-se em métricas automáticas de geração de código em cinco linguagens; em avaliações de qualidade de código em dez aspectos em cinco linguagens, o desempenho está na primeira divisão." + }, + "hunyuan-functioncall": { + "description": "O mais recente modelo FunctionCall da arquitetura MOE Hunyuan, treinado com dados de alta qualidade de FunctionCall, com uma janela de contexto de 32K, liderando em várias métricas de avaliação." + }, + "hunyuan-lite": { + "description": "Atualizado para uma estrutura MOE, com uma janela de contexto de 256k, liderando em várias avaliações em NLP, código, matemática e setores diversos em comparação com muitos modelos de código aberto." + }, + "hunyuan-pro": { + "description": "Modelo de texto longo MOE-32K com trilhões de parâmetros. Alcança níveis de liderança absoluta em vários benchmarks, com capacidades complexas de instrução e raciocínio, habilidades matemáticas complexas, suporte a chamadas de função, otimizado para áreas como tradução multilíngue, finanças, direito e saúde." + }, + "hunyuan-role": { + "description": "O mais recente modelo de interpretação de papéis Hunyuan, um modelo de interpretação de papéis ajustado e treinado oficialmente pela Hunyuan, que combina o modelo Hunyuan com um conjunto de dados de cenários de interpretação de papéis, apresentando um desempenho básico melhor em cenários de interpretação de papéis." + }, + "hunyuan-standard": { + "description": "Adota uma estratégia de roteamento superior, ao mesmo tempo que mitiga problemas de balanceamento de carga e convergência de especialistas. Em termos de textos longos, o índice de precisão atinge 99,9%. O MOE-32K oferece uma relação custo-benefício relativamente melhor, equilibrando desempenho e preço, permitindo o processamento de entradas de texto longo." + }, + "hunyuan-standard-256K": { + "description": "Adota uma estratégia de roteamento superior, ao mesmo tempo que mitiga problemas de balanceamento de carga e convergência de especialistas. Em termos de textos longos, o índice de precisão atinge 99,9%. O MOE-256K rompe ainda mais em comprimento e desempenho, expandindo significativamente o comprimento de entrada permitido." + }, + "hunyuan-turbo": { + "description": "Versão de pré-visualização do novo modelo de linguagem de próxima geração Hunyuan, utilizando uma nova estrutura de modelo de especialistas mistos (MoE), com eficiência de inferência mais rápida e desempenho superior em comparação ao Hunyuan-Pro." + }, + "hunyuan-vision": { + "description": "O mais recente modelo multimodal Hunyuan, que suporta a entrada de imagens e texto para gerar conteúdo textual." + }, "internlm/internlm2_5-20b-chat": { "description": "O modelo de código aberto inovador InternLM2.5, com um grande número de parâmetros, melhora a inteligência do diálogo." }, @@ -634,6 +697,12 @@ "meta-llama/llama-3.1-8b-instruct:free": { "description": "LLaMA 3.1 oferece suporte multilíngue e é um dos modelos geradores líderes do setor." }, + "meta-llama/llama-3.2-11b-vision-instruct": { + "description": "LLaMA 3.2 é projetado para lidar com tarefas que combinam dados visuais e textuais. Ele se destaca em tarefas como descrição de imagens e perguntas visuais, superando a lacuna entre geração de linguagem e raciocínio visual." + }, + "meta-llama/llama-3.2-90b-vision-instruct": { + "description": "LLaMA 3.2 é projetado para lidar com tarefas que combinam dados visuais e textuais. Ele se destaca em tarefas como descrição de imagens e perguntas visuais, superando a lacuna entre geração de linguagem e raciocínio visual." + }, "meta.llama3-1-405b-instruct-v1:0": { "description": "Meta Llama 3.1 405B Instruct é o maior e mais poderoso modelo da série Llama 3.1 Instruct, sendo um modelo altamente avançado para raciocínio conversacional e geração de dados sintéticos, que também pode ser usado como base para pré-treinamento ou ajuste fino em domínios específicos. Os modelos de linguagem de grande escala (LLMs) multilíngues oferecidos pelo Llama 3.1 são um conjunto de modelos geradores pré-treinados e ajustados por instruções, incluindo tamanhos de 8B, 70B e 405B (entrada/saída de texto). Os modelos de texto ajustados por instruções do Llama 3.1 (8B, 70B, 405B) são otimizados para casos de uso de diálogo multilíngue e superaram muitos modelos de chat de código aberto disponíveis em benchmarks comuns da indústria. O Llama 3.1 é projetado para uso comercial e de pesquisa em várias línguas. Os modelos de texto ajustados por instruções são adequados para chats semelhantes a assistentes, enquanto os modelos pré-treinados podem se adaptar a várias tarefas de geração de linguagem natural. O modelo Llama 3.1 também suporta a utilização de sua saída para melhorar outros modelos, incluindo geração de dados sintéticos e refinamento. O Llama 3.1 é um modelo de linguagem autoregressivo que utiliza uma arquitetura de transformador otimizada. As versões ajustadas utilizam ajuste fino supervisionado (SFT) e aprendizado por reforço com feedback humano (RLHF) para alinhar-se às preferências humanas em relação à utilidade e segurança." }, diff --git a/locales/pt-BR/providers.json b/locales/pt-BR/providers.json index 96da851a50c7..b60b145e6fb6 100644 --- a/locales/pt-BR/providers.json +++ b/locales/pt-BR/providers.json @@ -30,6 +30,9 @@ "groq": { "description": "O motor de inferência LPU da Groq se destacou em testes de benchmark independentes de modelos de linguagem de grande escala (LLM), redefinindo os padrões de soluções de IA com sua velocidade e eficiência impressionantes. A Groq representa uma velocidade de inferência em tempo real, demonstrando bom desempenho em implantações baseadas em nuvem." }, + "hunyuan": { + "description": "Um modelo de linguagem desenvolvido pela Tencent, com forte capacidade de criação em chinês, habilidade de raciocínio lógico em contextos complexos e capacidade confiável de execução de tarefas." + }, "minimax": { "description": "MiniMax é uma empresa de tecnologia de inteligência artificial geral fundada em 2021, dedicada a co-criar inteligência com os usuários. A MiniMax desenvolveu internamente diferentes modelos gerais de grande escala, incluindo um modelo de texto MoE com trilhões de parâmetros, um modelo de voz e um modelo de imagem. Também lançou aplicações como Conch AI." }, @@ -75,6 +78,9 @@ "upstage": { "description": "Upstage se concentra no desenvolvimento de modelos de IA para diversas necessidades comerciais, incluindo Solar LLM e Document AI, visando alcançar uma inteligência geral artificial (AGI) que funcione. Crie agentes de diálogo simples por meio da API de Chat e suporte chamadas de função, tradução, incorporação e aplicações em domínios específicos." }, + "wenxin": { + "description": "Plataforma de desenvolvimento e serviços de aplicativos nativos de IA e modelos de grande escala, voltada para empresas, que oferece a mais completa e fácil ferramenta de cadeia de ferramentas para o desenvolvimento de modelos de inteligência artificial generativa e aplicativos." + }, "zeroone": { "description": "01.AI se concentra na tecnologia de inteligência artificial da era 2.0, promovendo fortemente a inovação e aplicação de 'humano + inteligência artificial', utilizando modelos poderosos e tecnologia de IA avançada para aumentar a produtividade humana e realizar a capacitação tecnológica." }, diff --git a/locales/ru-RU/error.json b/locales/ru-RU/error.json index 0c8cb0ba41f7..e8282514f347 100644 --- a/locales/ru-RU/error.json +++ b/locales/ru-RU/error.json @@ -81,6 +81,7 @@ "PluginServerError": "Запрос сервера плагина возвратил ошибку. Проверьте файл манифеста плагина, конфигурацию плагина или реализацию сервера на основе информации об ошибке ниже", "PluginSettingsInvalid": "Этот плагин необходимо правильно настроить, прежде чем его можно будет использовать. Пожалуйста, проверьте правильность вашей конфигурации", "ProviderBizError": "Ошибка обслуживания {{provider}}. Пожалуйста, проверьте следующую информацию или повторите попытку", + "QuotaLimitReached": "Извините, текущий объем токенов или количество запросов достигло предела квоты для этого ключа. Пожалуйста, увеличьте квоту для этого ключа или попробуйте позже.", "StreamChunkError": "Ошибка разбора блока сообщения потокового запроса. Пожалуйста, проверьте, соответствует ли текущий API стандартам, или свяжитесь с вашим поставщиком API для получения консультации.", "SubscriptionPlanLimit": "Вы исчерпали свой лимит подписки и не можете использовать эту функцию. Пожалуйста, перейдите на более высокий план или приобретите дополнительные ресурсы для продолжения использования.", "UnknownChatFetchError": "Извините, произошла неизвестная ошибка запроса. Пожалуйста, проверьте информацию ниже или попробуйте снова." diff --git a/locales/ru-RU/modelProvider.json b/locales/ru-RU/modelProvider.json index 0569ef1b1829..2f974ed7c81a 100644 --- a/locales/ru-RU/modelProvider.json +++ b/locales/ru-RU/modelProvider.json @@ -112,6 +112,26 @@ "title": "Download specified Ollama model" } }, + "wenxin": { + "accessKey": { + "desc": "Введите Access Key платформы Baidu Qianfan", + "placeholder": "Access Key Qianfan", + "title": "Access Key" + }, + "checker": { + "desc": "Проверьте, правильно ли заполнены AccessKey / SecretAccess" + }, + "secretKey": { + "desc": "Введите Secret Key платформы Baidu Qianfan", + "placeholder": "Secret Key Qianfan", + "title": "Secret Key" + }, + "unlock": { + "customRegion": "Пользовательский регион сервиса", + "description": "Введите ваш AccessKey / SecretKey, чтобы начать сессию. Приложение не будет сохранять ваши данные аутентификации", + "title": "Использовать пользовательскую информацию аутентификации Wenxin Yiyan" + } + }, "zeroone": { "title": "01.AI Цифровая Вселенная" }, diff --git a/locales/ru-RU/models.json b/locales/ru-RU/models.json index 8b7e20964cdf..b466be4b9e8b 100644 --- a/locales/ru-RU/models.json +++ b/locales/ru-RU/models.json @@ -32,6 +32,39 @@ "Baichuan4": { "description": "Модель обладает лучшими возможностями в стране, превосходя зарубежные модели в задачах на знание, длинные тексты и генерацию контента. Также обладает передовыми мультимодальными возможностями и показывает отличные результаты в нескольких авторитетных тестах." }, + "ERNIE-3.5-128K": { + "description": "Флагманская крупномасштабная языковая модель, разработанная Baidu, охватывающая огромные объемы китайских и английских текстов, обладающая мощными универсальными возможностями, способная удовлетворить большинство требований к диалоговым ответам, генерации контента и сценариям использования плагинов; поддерживает автоматическую интеграцию с плагином поиска Baidu, обеспечивая актуальность информации в ответах." + }, + "ERNIE-3.5-8K": { + "description": "Флагманская крупномасштабная языковая модель, разработанная Baidu, охватывающая огромные объемы китайских и английских текстов, обладающая мощными универсальными возможностями, способная удовлетворить большинство требований к диалоговым ответам, генерации контента и сценариям использования плагинов; поддерживает автоматическую интеграцию с плагином поиска Baidu, обеспечивая актуальность информации в ответах." + }, + "ERNIE-3.5-8K-Preview": { + "description": "Флагманская крупномасштабная языковая модель, разработанная Baidu, охватывающая огромные объемы китайских и английских текстов, обладающая мощными универсальными возможностями, способная удовлетворить большинство требований к диалоговым ответам, генерации контента и сценариям использования плагинов; поддерживает автоматическую интеграцию с плагином поиска Baidu, обеспечивая актуальность информации в ответах." + }, + "ERNIE-4.0-8K-Latest": { + "description": "Флагманская сверхкрупномасштабная языковая модель, разработанная Baidu, которая по сравнению с ERNIE 3.5 обеспечивает полное обновление возможностей модели и широко применяется в сложных задачах в различных областях; поддерживает автоматическую интеграцию с плагином поиска Baidu, обеспечивая актуальность информации в ответах." + }, + "ERNIE-4.0-8K-Preview": { + "description": "Флагманская сверхкрупномасштабная языковая модель, разработанная Baidu, которая по сравнению с ERNIE 3.5 обеспечивает полное обновление возможностей модели и широко применяется в сложных задачах в различных областях; поддерживает автоматическую интеграцию с плагином поиска Baidu, обеспечивая актуальность информации в ответах." + }, + "ERNIE-4.0-Turbo-8K": { + "description": "Флагманская сверхкрупномасштабная языковая модель, разработанная Baidu, демонстрирующая отличные результаты в комплексной эффективности, широко применяемая в сложных задачах в различных областях; поддерживает автоматическую интеграцию с плагином поиска Baidu, обеспечивая актуальность информации в ответах. По сравнению с ERNIE 4.0, она демонстрирует лучшие показатели производительности." + }, + "ERNIE-4.0-Turbo-8K-Preview": { + "description": "Флагманская сверхкрупномасштабная языковая модель, разработанная Baidu, демонстрирующая отличные результаты в комплексной эффективности, широко применяемая в сложных задачах в различных областях; поддерживает автоматическую интеграцию с плагином поиска Baidu, обеспечивая актуальность информации в ответах. По сравнению с ERNIE 4.0, она демонстрирует лучшие показатели производительности." + }, + "ERNIE-Character-8K": { + "description": "Специализированная языковая модель, разработанная Baidu для вертикальных сценариев, подходящая для применения в играх (NPC), диалогах службы поддержки, ролевых играх и других сценариях, обладающая ярко выраженным и согласованным стилем персонажей, высокой способностью следовать инструкциям и отличной производительностью вывода." + }, + "ERNIE-Lite-Pro-128K": { + "description": "Легковесная языковая модель, разработанная Baidu, которая сочетает в себе отличные результаты модели и производительность вывода, превосходя ERNIE Lite, подходит для использования в системах с низкой вычислительной мощностью." + }, + "ERNIE-Speed-128K": { + "description": "Новая высокопроизводительная языковая модель, разработанная Baidu в 2024 году, обладающая выдающимися универсальными возможностями, подходит для использования в качестве базовой модели для тонкой настройки, лучше справляясь с задачами в специфических сценариях, при этом обладая отличной производительностью вывода." + }, + "ERNIE-Speed-Pro-128K": { + "description": "Новая высокопроизводительная языковая модель, разработанная Baidu в 2024 году, обладающая выдающимися универсальными возможностями, превосходящая ERNIE Speed, подходит для использования в качестве базовой модели для тонкой настройки, лучше справляясь с задачами в специфических сценариях, при этом обладая отличной производительностью вывода." + }, "Gryphe/MythoMax-L2-13b": { "description": "MythoMax-L2 (13B) — это инновационная модель, подходящая для многообластных приложений и сложных задач." }, @@ -401,6 +434,9 @@ "glm-4-flash": { "description": "GLM-4-Flash — это идеальный выбор для обработки простых задач, с самой высокой скоростью и самой низкой ценой." }, + "glm-4-flashx": { + "description": "GLM-4-FlashX — это улучшенная версия Flash с ультрабыстрой скоростью вывода." + }, "glm-4-long": { "description": "GLM-4-Long поддерживает сверхдлинные текстовые вводы, подходит для задач, требующих памяти, и обработки больших документов." }, @@ -413,11 +449,11 @@ "glm-4v-plus": { "description": "GLM-4V-Plus обладает способностью понимать видео-контент и множество изображений, подходит для мультимодальных задач." }, - "google/gemini-flash-1.5-exp": { - "description": "Gemini 1.5 Flash 0827 предлагает оптимизированные мультимодальные возможности обработки, подходящие для различных сложных задач." + "google/gemini-flash-1.5": { + "description": "Gemini 1.5 Flash предлагает оптимизированные возможности многомодальной обработки, подходящие для различных сложных задач." }, - "google/gemini-pro-1.5-exp": { - "description": "Gemini 1.5 Pro 0827 сочетает в себе новейшие оптимизационные технологии, обеспечивая более эффективную обработку мультимодальных данных." + "google/gemini-pro-1.5": { + "description": "Gemini 1.5 Pro сочетает в себе новейшие технологии оптимизации, обеспечивая более эффективную обработку многомодальных данных." }, "google/gemma-2-27b-it": { "description": "Gemma 2 продолжает концепцию легковесного и эффективного дизайна." @@ -491,6 +527,33 @@ "gryphe/mythomax-l2-13b": { "description": "MythoMax l2 13B — это языковая модель, объединяющая креативность и интеллект, основанная на нескольких ведущих моделях." }, + "hunyuan-code": { + "description": "Последняя модель генерации кода Hunyuan, обученная на базе 200B высококачественных данных кода, прошедшая полгода обучения на высококачественных данных SFT, с увеличенной длиной контекстного окна до 8K, занимает ведущие позиции по автоматическим оценочным показателям генерации кода на пяти языках; по десяти критериям оценки кода на пяти языках, производительность находится в первой группе." + }, + "hunyuan-functioncall": { + "description": "Последняя модель Hunyuan с архитектурой MOE FunctionCall, обученная на высококачественных данных FunctionCall, с контекстным окном до 32K, занимает лидирующие позиции по множеству оценочных показателей." + }, + "hunyuan-lite": { + "description": "Обновленная версия с MOE-структурой, контекстное окно составляет 256k, она опережает множество открытых моделей в оценках по NLP, коду, математике и другим областям." + }, + "hunyuan-pro": { + "description": "Модель длинного текста с параметрами уровня триллиона MOE-32K. Она достигает абсолютного лидерства на различных бенчмарках, обладает сложными инструкциями и выводом, имеет сложные математические способности и поддерживает вызовы функций, с акцентом на оптимизацию в области многоязычного перевода, финансов, права и медицины." + }, + "hunyuan-role": { + "description": "Последняя версия модели ролевого взаимодействия Hunyuan, выпущенная с официальной тонкой настройкой, основанная на модели Hunyuan и дополненная данными сценариев ролевого взаимодействия, демонстрирует лучшие базовые результаты в ролевых сценариях." + }, + "hunyuan-standard": { + "description": "Использует более оптимальную стратегию маршрутизации, одновременно смягчая проблемы с балансировкой нагрузки и сходимостью экспертов. В области длинных текстов показатель «найти иголку в стоге сена» достигает 99,9%. MOE-32K предлагает более высокую стоимость-эффективность, обеспечивая баланс между качеством и ценой, а также возможность обработки длинных текстовых вводов." + }, + "hunyuan-standard-256K": { + "description": "Использует более оптимальную стратегию маршрутизации, одновременно смягчая проблемы с балансировкой нагрузки и сходимостью экспертов. В области длинных текстов показатель «найти иголку в стоге сена» достигает 99,9%. MOE-256K делает дальнейший прорыв в длине и качестве, значительно расширяя допустимую длину ввода." + }, + "hunyuan-turbo": { + "description": "Предварительная версия нового поколения языковой модели Hunyuan, использующая совершенно новую структуру смешанной экспертной модели (MoE), которая обеспечивает более быструю эффективность вывода и более сильные результаты по сравнению с hunyuan-pro." + }, + "hunyuan-vision": { + "description": "Последняя многомодальная модель Hunyuan, поддерживающая ввод изображений и текста для генерации текстового контента." + }, "internlm/internlm2_5-20b-chat": { "description": "Инновационная открытая модель InternLM2.5, благодаря большому количеству параметров, повышает интеллектуальность диалогов." }, @@ -634,6 +697,12 @@ "meta-llama/llama-3.1-8b-instruct:free": { "description": "LLaMA 3.1 предлагает поддержку нескольких языков и является одной из ведущих генеративных моделей в отрасли." }, + "meta-llama/llama-3.2-11b-vision-instruct": { + "description": "LLaMA 3.2 предназначена для обработки задач, сочетающих визуальные и текстовые данные. Она демонстрирует отличные результаты в задачах описания изображений и визуального вопросно-ответного взаимодействия, преодолевая разрыв между генерацией языка и визуальным выводом." + }, + "meta-llama/llama-3.2-90b-vision-instruct": { + "description": "LLaMA 3.2 предназначена для обработки задач, сочетающих визуальные и текстовые данные. Она демонстрирует отличные результаты в задачах описания изображений и визуального вопросно-ответного взаимодействия, преодолевая разрыв между генерацией языка и визуальным выводом." + }, "meta.llama3-1-405b-instruct-v1:0": { "description": "Meta Llama 3.1 405B Instruct — это самая большая и мощная модель в линейке Llama 3.1 Instruct, представляющая собой высокоразвёрнутую модель для диалогового вывода и генерации синтетических данных, также может использоваться в качестве основы для специализированного предобучения или дообучения в определённых областях. Многоязычные большие языковые модели (LLMs), предлагаемые Llama 3.1, представляют собой набор предобученных генеративных моделей с настройкой на инструкции, включая размеры 8B, 70B и 405B (вход/выход текста). Модели текста с настройкой на инструкции Llama 3.1 (8B, 70B, 405B) оптимизированы для многоязычных диалоговых случаев и превосходят многие доступные открытые модели чата в общепринятых отраслевых бенчмарках. Llama 3.1 предназначена для коммерческого и исследовательского использования на нескольких языках. Модели текста с настройкой на инструкции подходят для диалогов, похожих на помощников, в то время как предобученные модели могут адаптироваться к различным задачам генерации естественного языка. Модели Llama 3.1 также поддерживают использование их вывода для улучшения других моделей, включая генерацию синтетических данных и уточнение. Llama 3.1 является саморегрессионной языковой моделью, использующей оптимизированную архитектуру трансформеров. Настроенные версии используют контролируемое дообучение (SFT) и обучение с подкреплением с человеческой обратной связью (RLHF), чтобы соответствовать предпочтениям людей в отношении полезности и безопасности." }, diff --git a/locales/ru-RU/providers.json b/locales/ru-RU/providers.json index c707f7eb534d..11a98eb19291 100644 --- a/locales/ru-RU/providers.json +++ b/locales/ru-RU/providers.json @@ -30,6 +30,9 @@ "groq": { "description": "Инженерный движок LPU от Groq показал выдающиеся результаты в последних независимых бенчмарках больших языковых моделей (LLM), переопределяя стандарты AI-решений благодаря своей удивительной скорости и эффективности. Groq представляет собой образец мгновенной скорости вывода, демонстрируя хорошие результаты в облачных развертываниях." }, + "hunyuan": { + "description": "Большая языковая модель, разработанная Tencent, обладающая мощными способностями к созданию текстов на китайском языке, логическим рассуждениям в сложных контекстах и надежным выполнением задач." + }, "minimax": { "description": "MiniMax — это компания по разработке универсального искусственного интеллекта, основанная в 2021 году, стремящаяся к совместному созданию интеллекта с пользователями. MiniMax самостоятельно разработала универсальные большие модели различных модальностей, включая текстовые модели с триллионом параметров, модели речи и модели изображений. Также были запущены приложения, такие как Conch AI." }, @@ -75,6 +78,9 @@ "upstage": { "description": "Upstage сосредоточен на разработке AI-моделей для различных бизнес-потребностей, включая Solar LLM и документальный AI, с целью достижения искусственного общего интеллекта (AGI). Создавайте простые диалоговые агенты через Chat API и поддерживайте вызовы функций, переводы, встраивания и приложения в конкретных областях." }, + "wenxin": { + "description": "Корпоративная платформа для разработки и обслуживания крупных моделей и нативных приложений ИИ, предлагающая самый полный и удобный инструментарий для разработки генеративных моделей искусственного интеллекта и полного процесса разработки приложений." + }, "zeroone": { "description": "01.AI сосредоточен на технологиях искусственного интеллекта 2.0, активно продвигая инновации и применение \"человек + искусственный интеллект\", используя мощные модели и передовые AI-технологии для повышения производительности человека и реализации технологического потенциала." }, diff --git a/locales/tr-TR/error.json b/locales/tr-TR/error.json index 6f3f94cc5dd5..6f8f189dc074 100644 --- a/locales/tr-TR/error.json +++ b/locales/tr-TR/error.json @@ -81,6 +81,7 @@ "PluginServerError": "Eklenti sunucusu isteği bir hata ile döndü. Lütfen aşağıdaki hata bilgilerine dayanarak eklenti bildirim dosyanızı, eklenti yapılandırmanızı veya sunucu uygulamanızı kontrol edin", "PluginSettingsInvalid": "Bu eklenti, kullanılmadan önce doğru şekilde yapılandırılmalıdır. Lütfen yapılandırmanızın doğru olup olmadığını kontrol edin", "ProviderBizError": "Talep {{provider}} hizmetinde bir hata oluştu, lütfen aşağıdaki bilgilere göre sorunu giderin veya tekrar deneyin", + "QuotaLimitReached": "Üzgünüz, mevcut Token kullanımı veya istek sayısı bu anahtarın kota (quota) sınırına ulaştı. Lütfen bu anahtarın kotasını artırın veya daha sonra tekrar deneyin.", "StreamChunkError": "Akış isteği mesaj parçası çözümleme hatası, lütfen mevcut API arayüzünün standartlara uygun olup olmadığını kontrol edin veya API sağlayıcınızla iletişime geçin.", "SubscriptionPlanLimit": "Abonelik kotası tükenmiş, bu özelliği kullanamazsınız. Lütfen daha yüksek bir plana yükseltin veya kaynak paketi satın alarak devam edin.", "UnknownChatFetchError": "Üzgünüm, bilinmeyen bir istek hatasıyla karşılaştık. Lütfen aşağıdaki bilgileri kontrol edin veya tekrar deneyin." diff --git a/locales/tr-TR/modelProvider.json b/locales/tr-TR/modelProvider.json index 26aeb8d24e47..4a2bd80535a6 100644 --- a/locales/tr-TR/modelProvider.json +++ b/locales/tr-TR/modelProvider.json @@ -112,6 +112,26 @@ "title": "下载指定的 Ollama 模型" } }, + "wenxin": { + "accessKey": { + "desc": "Baidu Qianfan platform için Access Key girin", + "placeholder": "Qianfan Access Key", + "title": "Access Key" + }, + "checker": { + "desc": "AccessKey / SecretAccess'ın doğru girilip girilmediğini test et" + }, + "secretKey": { + "desc": "Baidu Qianfan platform için Secret Key girin", + "placeholder": "Qianfan Secret Key", + "title": "Secret Key" + }, + "unlock": { + "customRegion": "Özel hizmet bölgesi", + "description": "Oturuma başlamak için AccessKey / SecretKey'nizi girin. Uygulama kimlik doğrulama yapılandırmanızı kaydetmeyecek", + "title": "Özel Wenxin Yiyan kimlik doğrulama bilgilerini kullan" + } + }, "zeroone": { "title": "01.AI Sıfır Bir" }, diff --git a/locales/tr-TR/models.json b/locales/tr-TR/models.json index 5188fd7b3d44..c53fa6575987 100644 --- a/locales/tr-TR/models.json +++ b/locales/tr-TR/models.json @@ -32,6 +32,39 @@ "Baichuan4": { "description": "Model yetenekleri ülke içinde birinci sırada, bilgi ansiklopedisi, uzun metinler, yaratıcı üretim gibi Çince görevlerde yurtdışındaki önde gelen modelleri geride bırakmaktadır. Ayrıca, sektör lideri çok modlu yeteneklere sahiptir ve birçok yetkili değerlendirme kriterinde mükemmel performans göstermektedir." }, + "ERNIE-3.5-128K": { + "description": "Baidu'nun kendi geliştirdiği, büyük ölçekli bir dil modeli olan ERNIE-3.5, geniş bir Çin ve İngilizce veri kümesini kapsar. Güçlü genel yeteneklere sahip olup, çoğu diyalog, soru-cevap, yaratıcı içerik üretimi ve eklenti uygulama senaryolarını karşılayabilir; ayrıca, Baidu arama eklentisi ile otomatik entegrasyonu destekleyerek, soru-cevap bilgilerinin güncelliğini sağlar." + }, + "ERNIE-3.5-8K": { + "description": "Baidu'nun kendi geliştirdiği, büyük ölçekli bir dil modeli olan ERNIE-3.5, geniş bir Çin ve İngilizce veri kümesini kapsar. Güçlü genel yeteneklere sahip olup, çoğu diyalog, soru-cevap, yaratıcı içerik üretimi ve eklenti uygulama senaryolarını karşılayabilir; ayrıca, Baidu arama eklentisi ile otomatik entegrasyonu destekleyerek, soru-cevap bilgilerinin güncelliğini sağlar." + }, + "ERNIE-3.5-8K-Preview": { + "description": "Baidu'nun kendi geliştirdiği, büyük ölçekli bir dil modeli olan ERNIE-3.5, geniş bir Çin ve İngilizce veri kümesini kapsar. Güçlü genel yeteneklere sahip olup, çoğu diyalog, soru-cevap, yaratıcı içerik üretimi ve eklenti uygulama senaryolarını karşılayabilir; ayrıca, Baidu arama eklentisi ile otomatik entegrasyonu destekleyerek, soru-cevap bilgilerinin güncelliğini sağlar." + }, + "ERNIE-4.0-8K-Latest": { + "description": "Baidu'nun kendi geliştirdiği amiral gemisi ultra büyük ölçekli dil modeli, ERNIE 3.5'e kıyasla model yeteneklerinde kapsamlı bir yükseltme gerçekleştirmiştir, çeşitli alanlardaki karmaşık görev senaryolarında geniş bir şekilde uygulanabilir; Baidu arama eklentisi ile otomatik entegrasyonu destekler, yanıt bilgilerini güncel tutar." + }, + "ERNIE-4.0-8K-Preview": { + "description": "Baidu'nun kendi geliştirdiği amiral gemisi ultra büyük ölçekli dil modeli, ERNIE 3.5'e kıyasla model yeteneklerinde kapsamlı bir yükseltme gerçekleştirmiştir, çeşitli alanlardaki karmaşık görev senaryolarında geniş bir şekilde uygulanabilir; Baidu arama eklentisi ile otomatik entegrasyonu destekler, yanıt bilgilerini güncel tutar." + }, + "ERNIE-4.0-Turbo-8K": { + "description": "Baidu'nun kendi geliştirdiği amiral gemisi ultra büyük ölçekli dil modeli, genel performansı mükemmel olup, çeşitli alanlardaki karmaşık görev senaryolarında geniş bir şekilde uygulanabilir; Baidu arama eklentisi ile otomatik entegrasyonu destekler, yanıt bilgilerini güncel tutar. ERNIE 4.0'a kıyasla performans açısından daha üstündür." + }, + "ERNIE-4.0-Turbo-8K-Preview": { + "description": "Baidu'nun kendi geliştirdiği amiral gemisi ultra büyük ölçekli dil modeli, genel performansı mükemmel olup, çeşitli alanlardaki karmaşık görev senaryolarında geniş bir şekilde uygulanabilir; Baidu arama eklentisi ile otomatik entegrasyonu destekler, yanıt bilgilerini güncel tutar. ERNIE 4.0'a kıyasla performans açısından daha üstündür." + }, + "ERNIE-Character-8K": { + "description": "Baidu'nun kendi geliştirdiği dikey senaryo büyük dil modeli, oyun NPC'leri, müşteri hizmetleri diyalogları, diyalog karakter rolü gibi uygulama senaryoları için uygundur, karakter tarzı daha belirgin ve tutarlıdır, talimatları takip etme yeteneği daha güçlüdür ve çıkarım performansı daha iyidir." + }, + "ERNIE-Lite-Pro-128K": { + "description": "Baidu'nun kendi geliştirdiği hafif büyük dil modeli, mükemmel model performansı ve çıkarım yeteneklerini dengeler, ERNIE Lite'dan daha iyi sonuçlar verir, düşük hesaplama gücüne sahip AI hızlandırıcı kartları için uygundur." + }, + "ERNIE-Speed-128K": { + "description": "Baidu'nun 2024 yılında piyasaya sürdüğü kendi geliştirdiği yüksek performanslı büyük dil modeli, genel yetenekleri mükemmel olup, belirli senaryo sorunlarını daha iyi işlemek için temel model olarak ince ayar yapmak için uygundur ve mükemmel çıkarım performansına sahiptir." + }, + "ERNIE-Speed-Pro-128K": { + "description": "Baidu'nun 2024 yılında piyasaya sürdüğü kendi geliştirdiği yüksek performanslı büyük dil modeli, genel yetenekleri mükemmel olup, ERNIE Speed'den daha iyi sonuçlar verir, belirli senaryo sorunlarını daha iyi işlemek için temel model olarak ince ayar yapmak için uygundur ve mükemmel çıkarım performansına sahiptir." + }, "Gryphe/MythoMax-L2-13b": { "description": "MythoMax-L2 (13B), çok alanlı uygulamalar ve karmaşık görevler için uygun yenilikçi bir modeldir." }, @@ -401,6 +434,9 @@ "glm-4-flash": { "description": "GLM-4-Flash, basit görevleri işlemek için ideal bir seçimdir, en hızlı ve en uygun fiyatlıdır." }, + "glm-4-flashx": { + "description": "GLM-4-FlashX, Flash'ın geliştirilmiş bir versiyonudur ve ultra hızlı çıkarım hızı sunar." + }, "glm-4-long": { "description": "GLM-4-Long, ultra uzun metin girişlerini destekler, bellek tabanlı görevler ve büyük ölçekli belge işleme için uygundur." }, @@ -413,11 +449,11 @@ "glm-4v-plus": { "description": "GLM-4V-Plus, video içeriği ve çoklu görüntüleri anlama yeteneğine sahiptir, çok modlu görevler için uygundur." }, - "google/gemini-flash-1.5-exp": { - "description": "Gemini 1.5 Flash 0827, optimize edilmiş çok modlu işleme yetenekleri sunar ve çeşitli karmaşık görev senaryolarına uygundur." + "google/gemini-flash-1.5": { + "description": "Gemini 1.5 Flash, optimize edilmiş çok modlu işleme yetenekleri sunar ve çeşitli karmaşık görev senaryolarına uygundur." }, - "google/gemini-pro-1.5-exp": { - "description": "Gemini 1.5 Pro 0827, en son optimize edilmiş teknolojileri birleştirerek daha verimli çok modlu veri işleme yetenekleri sunar." + "google/gemini-pro-1.5": { + "description": "Gemini 1.5 Pro, en son optimize edilmiş teknolojileri birleştirerek daha verimli çok modlu veri işleme yetenekleri sunar." }, "google/gemma-2-27b-it": { "description": "Gemma 2, hafiflik ve verimlilik tasarım felsefesini sürdürmektedir." @@ -491,6 +527,33 @@ "gryphe/mythomax-l2-13b": { "description": "MythoMax l2 13B, birden fazla üst düzey modelin birleşimiyle yaratıcı ve zeka odaklı bir dil modelidir." }, + "hunyuan-code": { + "description": "Hunyuan'ın en son kod oluşturma modeli, 200B yüksek kaliteli kod verisi ile artırılmış temel model ile altı ay boyunca yüksek kaliteli SFT verisi eğitimi almıştır. Bağlam penceresi uzunluğu 8K'ya çıkarılmıştır ve beş büyük dil için kod oluşturma otomatik değerlendirme göstergelerinde ön sıralardadır; beş büyük dilde 10 kriterin her yönüyle yüksek kaliteli değerlendirmelerde performansı birinci sıradadır." + }, + "hunyuan-functioncall": { + "description": "Hunyuan'ın en son MOE mimarisi FunctionCall modeli, yüksek kaliteli FunctionCall verisi ile eğitilmiş olup, bağlam penceresi 32K'ya ulaşmıştır ve birçok boyutta değerlendirme göstergelerinde lider konumdadır." + }, + "hunyuan-lite": { + "description": "MOE yapısına yükseltilmiş, bağlam penceresi 256k, NLP, kod, matematik, endüstri gibi birçok değerlendirme setinde birçok açık kaynak modelden önde." + }, + "hunyuan-pro": { + "description": "Trilyon seviyesinde parametre ölçeğine sahip MOE-32K uzun metin modeli. Çeşitli benchmarklarda kesin bir liderlik seviyesine ulaşarak, karmaşık talimatlar ve akıl yürütme yetenekleri ile karmaşık matematik yetenekleri sunar, functioncall desteği ile çok dilli çeviri, finans, hukuk ve sağlık gibi alanlarda önemli optimizasyonlar sağlar." + }, + "hunyuan-role": { + "description": "Hunyuan'ın en son rol yapma modeli, Hunyuan resmi ince ayar eğitimi ile geliştirilmiş rol yapma modelidir. Hunyuan modeli ile rol yapma senaryosu veri seti birleştirilerek artırılmıştır ve rol yapma senaryolarında daha iyi temel performans sunmaktadır." + }, + "hunyuan-standard": { + "description": "Daha iyi bir yönlendirme stratejisi kullanarak, yük dengeleme ve uzman yakınsaması sorunlarını hafifletir. Uzun metinlerde, iğne arama göstergesi %99.9'a ulaşmaktadır. MOE-32K, uzun metin girişlerini işleme yeteneği ile etki ve fiyat dengesini sağlarken, maliyet açısından daha yüksek bir değer sunar." + }, + "hunyuan-standard-256K": { + "description": "Daha iyi bir yönlendirme stratejisi kullanarak, yük dengeleme ve uzman yakınsaması sorunlarını hafifletir. Uzun metinlerde, iğne arama göstergesi %99.9'a ulaşmaktadır. MOE-256K, uzunluk ve etki açısından daha fazla bir sıçrama yaparak, girdi uzunluğunu büyük ölçüde genişletir." + }, + "hunyuan-turbo": { + "description": "Hunyuan'ın yeni nesil büyük dil modelinin önizleme sürümü, tamamen yeni bir karma uzman modeli (MoE) yapısı kullanır ve hunyuan-pro'ya kıyasla daha hızlı çıkarım verimliliği ve daha güçlü performans sunar." + }, + "hunyuan-vision": { + "description": "Hunyuan'ın en son çok modlu modeli, resim + metin girişi ile metin içeriği oluşturmayı destekler." + }, "internlm/internlm2_5-20b-chat": { "description": "Yenilikçi açık kaynak modeli InternLM2.5, büyük ölçekli parametreler ile diyalog zekasını artırmıştır." }, @@ -634,6 +697,12 @@ "meta-llama/llama-3.1-8b-instruct:free": { "description": "LLaMA 3.1, çok dilli destek sunar ve sektördeki en önde gelen üretim modellerinden biridir." }, + "meta-llama/llama-3.2-11b-vision-instruct": { + "description": "LLaMA 3.2, görsel ve metin verilerini birleştiren görevleri işlemek için tasarlanmıştır. Görüntü tanımlama ve görsel soru yanıtlama gibi görevlerde mükemmel performans sergileyerek dil üretimi ve görsel akıl yürütme arasındaki boşluğu kapatmaktadır." + }, + "meta-llama/llama-3.2-90b-vision-instruct": { + "description": "LLaMA 3.2, görsel ve metin verilerini birleştiren görevleri işlemek için tasarlanmıştır. Görüntü tanımlama ve görsel soru yanıtlama gibi görevlerde mükemmel performans sergileyerek dil üretimi ve görsel akıl yürütme arasındaki boşluğu kapatmaktadır." + }, "meta.llama3-1-405b-instruct-v1:0": { "description": "Meta Llama 3.1 405B Instruct, Llama 3.1 Instruct modelinin en büyük ve en güçlü versiyonudur. Bu, son derece gelişmiş bir diyalog akıl yürütme ve veri sentezleme modelidir ve belirli alanlarda uzmanlaşmış sürekli ön eğitim veya ince ayar için bir temel olarak da kullanılabilir. Llama 3.1, çok dilli büyük dil modelleri (LLM'ler) sunar ve 8B, 70B ve 405B boyutlarında önceden eğitilmiş, talimat ayarlı üretim modellerinden oluşur (metin girişi/çıkışı). Llama 3.1'in talimat ayarlı metin modelleri (8B, 70B, 405B), çok dilli diyalog kullanım durumları için optimize edilmiştir ve yaygın endüstri benchmark testlerinde birçok mevcut açık kaynaklı sohbet modelini geride bırakmıştır. Llama 3.1, çok dilli ticari ve araştırma amaçları için tasarlanmıştır. Talimat ayarlı metin modelleri, asistan benzeri sohbetler için uygundur, önceden eğitilmiş modeller ise çeşitli doğal dil üretim görevlerine uyum sağlayabilir. Llama 3.1 modeli, diğer modellerin çıktısını iyileştirmek için de kullanılabilir, bu da veri sentezleme ve rafine etme işlemlerini içerir. Llama 3.1, optimize edilmiş bir transformer mimarisi kullanarak oluşturulmuş bir otoregresif dil modelidir. Ayarlanmış versiyon, insan yardımseverliği ve güvenlik tercihleri ile uyumlu hale getirmek için denetimli ince ayar (SFT) ve insan geri bildirimi ile güçlendirilmiş öğrenme (RLHF) kullanır." }, diff --git a/locales/tr-TR/providers.json b/locales/tr-TR/providers.json index 73a7b3ac2ac6..5a324e5a4f03 100644 --- a/locales/tr-TR/providers.json +++ b/locales/tr-TR/providers.json @@ -30,6 +30,9 @@ "groq": { "description": "Groq'un LPU çıkarım motoru, en son bağımsız büyük dil modeli (LLM) benchmark testlerinde mükemmel performans sergilemekte ve olağanüstü hız ve verimliliği ile yapay zeka çözümlerinin standartlarını yeniden tanımlamaktadır. Groq, bulut tabanlı dağıtımlarda iyi bir performans sergileyen anlık çıkarım hızının temsilcisidir." }, + "hunyuan": { + "description": "Tencent tarafından geliştirilen büyük bir dil modeli, güçlü Çince yaratım yeteneklerine, karmaşık bağlamlarda mantıksal akıl yürütme yeteneğine ve güvenilir görev yerine getirme yeteneğine sahiptir." + }, "minimax": { "description": "MiniMax, 2021 yılında kurulan genel yapay zeka teknolojisi şirketidir ve kullanıcılarla birlikte akıllı çözümler yaratmayı hedeflemektedir. MiniMax, farklı modlarda genel büyük modeller geliştirmiştir. Bunlar arasında trilyon parametreli MoE metin büyük modeli, ses büyük modeli ve görüntü büyük modeli bulunmaktadır. Ayrıca, Conch AI gibi uygulamalar da sunmaktadır." }, @@ -75,6 +78,9 @@ "upstage": { "description": "Upstage, çeşitli ticari ihtiyaçlar için yapay zeka modelleri geliştirmeye odaklanmaktadır. Solar LLM ve belge AI gibi modeller, insan yapımı genel zeka (AGI) hedeflemektedir. Chat API aracılığıyla basit diyalog ajanları oluşturmakta ve işlev çağrısı, çeviri, gömme ve belirli alan uygulamalarını desteklemektedir." }, + "wenxin": { + "description": "Kurumsal düzeyde tek duraklı büyük model ve AI yerel uygulama geliştirme ve hizmet platformu, en kapsamlı ve kullanımı kolay üretken yapay zeka modeli geliştirme, uygulama geliştirme için tam süreç araç zinciri sunar." + }, "zeroone": { "description": "01.AI, yapay zeka 2.0 çağının yapay zeka teknolojisine odaklanmakta ve 'insan + yapay zeka' yenilik ve uygulamalarını teşvik etmektedir. Son derece güçlü modeller ve gelişmiş yapay zeka teknolojileri kullanarak insan üretkenliğini artırmayı ve teknolojik güçlendirmeyi hedeflemektedir." }, diff --git a/locales/vi-VN/error.json b/locales/vi-VN/error.json index 329e4d63b09d..97702c4a5834 100644 --- a/locales/vi-VN/error.json +++ b/locales/vi-VN/error.json @@ -81,6 +81,7 @@ "PluginServerError": "Lỗi trả về từ máy chủ plugin, vui lòng kiểm tra tệp mô tả plugin, cấu hình plugin hoặc triển khai máy chủ theo thông tin lỗi dưới đây", "PluginSettingsInvalid": "Plugin cần phải được cấu hình đúng trước khi sử dụng, vui lòng kiểm tra cấu hình của bạn có đúng không", "ProviderBizError": "Yêu cầu dịch vụ {{provider}} gặp sự cố, vui lòng kiểm tra thông tin dưới đây hoặc thử lại", + "QuotaLimitReached": "Xin lỗi, lượng Token hiện tại hoặc số lần yêu cầu đã đạt đến giới hạn quota của khóa này, vui lòng tăng quota của khóa hoặc thử lại sau.", "StreamChunkError": "Lỗi phân tích khối tin nhắn yêu cầu luồng, vui lòng kiểm tra xem API hiện tại có tuân thủ tiêu chuẩn hay không, hoặc liên hệ với nhà cung cấp API của bạn để được tư vấn.", "SubscriptionPlanLimit": "Số lượng đăng ký của bạn đã hết, không thể sử dụng tính năng này. Vui lòng nâng cấp lên gói cao hơn hoặc mua gói tài nguyên để tiếp tục sử dụng.", "UnknownChatFetchError": "Xin lỗi, đã xảy ra lỗi yêu cầu không xác định. Vui lòng kiểm tra hoặc thử lại theo thông tin dưới đây." diff --git a/locales/vi-VN/modelProvider.json b/locales/vi-VN/modelProvider.json index a643f9f2a83d..54ff8a321ec5 100644 --- a/locales/vi-VN/modelProvider.json +++ b/locales/vi-VN/modelProvider.json @@ -112,6 +112,26 @@ "title": "Tải xuống mô hình Ollama đã chỉ định" } }, + "wenxin": { + "accessKey": { + "desc": "Nhập Access Key từ nền tảng Qianfan của Baidu", + "placeholder": "Access Key Qianfan", + "title": "Access Key" + }, + "checker": { + "desc": "Kiểm tra xem AccessKey / SecretAccess có được nhập đúng không" + }, + "secretKey": { + "desc": "Nhập Secret Key từ nền tảng Qianfan của Baidu", + "placeholder": "Secret Key Qianfan", + "title": "Secret Key" + }, + "unlock": { + "customRegion": "Khu vực dịch vụ tùy chỉnh", + "description": "Nhập AccessKey / SecretKey của bạn để bắt đầu phiên trò chuyện. Ứng dụng sẽ không ghi lại cấu hình xác thực của bạn", + "title": "Sử dụng thông tin xác thực của Wenxin Yiyan tùy chỉnh" + } + }, "zeroone": { "title": "01.AI Zero One" }, diff --git a/locales/vi-VN/models.json b/locales/vi-VN/models.json index 314999e4bd09..1c8dbded195f 100644 --- a/locales/vi-VN/models.json +++ b/locales/vi-VN/models.json @@ -32,6 +32,39 @@ "Baichuan4": { "description": "Mô hình có khả năng hàng đầu trong nước, vượt trội hơn các mô hình chính thống nước ngoài trong các nhiệm vụ tiếng Trung như bách khoa toàn thư, văn bản dài, sáng tạo nội dung. Cũng có khả năng đa phương tiện hàng đầu trong ngành, thể hiện xuất sắc trong nhiều tiêu chuẩn đánh giá uy tín." }, + "ERNIE-3.5-128K": { + "description": "Mô hình ngôn ngữ quy mô lớn hàng đầu do Baidu tự phát triển, bao phủ một lượng lớn tài liệu tiếng Trung và tiếng Anh, có khả năng tổng quát mạnh mẽ, có thể đáp ứng hầu hết các yêu cầu về đối thoại, hỏi đáp, sáng tạo nội dung và các tình huống ứng dụng plugin; hỗ trợ tự động kết nối với plugin tìm kiếm của Baidu, đảm bảo thông tin hỏi đáp luôn được cập nhật kịp thời." + }, + "ERNIE-3.5-8K": { + "description": "Mô hình ngôn ngữ quy mô lớn hàng đầu do Baidu tự phát triển, bao phủ một lượng lớn tài liệu tiếng Trung và tiếng Anh, có khả năng tổng quát mạnh mẽ, có thể đáp ứng hầu hết các yêu cầu về đối thoại, hỏi đáp, sáng tạo nội dung và các tình huống ứng dụng plugin; hỗ trợ tự động kết nối với plugin tìm kiếm của Baidu, đảm bảo thông tin hỏi đáp luôn được cập nhật kịp thời." + }, + "ERNIE-3.5-8K-Preview": { + "description": "Mô hình ngôn ngữ quy mô lớn hàng đầu do Baidu tự phát triển, bao phủ một lượng lớn tài liệu tiếng Trung và tiếng Anh, có khả năng tổng quát mạnh mẽ, có thể đáp ứng hầu hết các yêu cầu về đối thoại, hỏi đáp, sáng tạo nội dung và các tình huống ứng dụng plugin; hỗ trợ tự động kết nối với plugin tìm kiếm của Baidu, đảm bảo thông tin hỏi đáp luôn được cập nhật kịp thời." + }, + "ERNIE-4.0-8K-Latest": { + "description": "Mô hình ngôn ngữ quy mô siêu lớn hàng đầu do Baidu tự phát triển, so với ERNIE 3.5 đã nâng cấp toàn diện khả năng của mô hình, phù hợp rộng rãi với các nhiệm vụ phức tạp trong nhiều lĩnh vực; hỗ trợ tự động kết nối với plugin tìm kiếm Baidu, đảm bảo thông tin hỏi đáp luôn cập nhật." + }, + "ERNIE-4.0-8K-Preview": { + "description": "Mô hình ngôn ngữ quy mô siêu lớn hàng đầu do Baidu tự phát triển, so với ERNIE 3.5 đã nâng cấp toàn diện khả năng của mô hình, phù hợp rộng rãi với các nhiệm vụ phức tạp trong nhiều lĩnh vực; hỗ trợ tự động kết nối với plugin tìm kiếm Baidu, đảm bảo thông tin hỏi đáp luôn cập nhật." + }, + "ERNIE-4.0-Turbo-8K": { + "description": "Mô hình ngôn ngữ quy mô siêu lớn hàng đầu do Baidu tự phát triển, có hiệu suất tổng thể xuất sắc, phù hợp rộng rãi với các nhiệm vụ phức tạp trong nhiều lĩnh vực; hỗ trợ tự động kết nối với plugin tìm kiếm Baidu, đảm bảo thông tin hỏi đáp luôn cập nhật. So với ERNIE 4.0, hiệu suất tốt hơn." + }, + "ERNIE-4.0-Turbo-8K-Preview": { + "description": "Mô hình ngôn ngữ quy mô siêu lớn hàng đầu do Baidu tự phát triển, có hiệu suất tổng thể xuất sắc, phù hợp rộng rãi với các nhiệm vụ phức tạp trong nhiều lĩnh vực; hỗ trợ tự động kết nối với plugin tìm kiếm Baidu, đảm bảo thông tin hỏi đáp luôn cập nhật. So với ERNIE 4.0, hiệu suất tốt hơn." + }, + "ERNIE-Character-8K": { + "description": "Mô hình ngôn ngữ quy mô lớn cho các tình huống chuyên biệt do Baidu tự phát triển, phù hợp cho các ứng dụng như NPC trong game, đối thoại dịch vụ khách hàng, và vai trò trong đối thoại, phong cách nhân vật rõ ràng và nhất quán hơn, khả năng tuân thủ chỉ dẫn mạnh mẽ, hiệu suất suy diễn tốt hơn." + }, + "ERNIE-Lite-Pro-128K": { + "description": "Mô hình ngôn ngữ quy mô lớn nhẹ do Baidu tự phát triển, kết hợp hiệu suất mô hình xuất sắc với khả năng suy diễn, hiệu quả tốt hơn ERNIE Lite, phù hợp cho việc suy diễn trên thẻ tăng tốc AI có công suất thấp." + }, + "ERNIE-Speed-128K": { + "description": "Mô hình ngôn ngữ quy mô lớn hiệu suất cao do Baidu phát hành vào năm 2024, có khả năng tổng quát xuất sắc, phù hợp làm mô hình nền để tinh chỉnh, xử lý tốt hơn các vấn đề trong các tình huống cụ thể, đồng thời có khả năng suy diễn tuyệt vời." + }, + "ERNIE-Speed-Pro-128K": { + "description": "Mô hình ngôn ngữ quy mô lớn hiệu suất cao do Baidu phát hành vào năm 2024, có khả năng tổng quát xuất sắc, hiệu quả tốt hơn ERNIE Speed, phù hợp làm mô hình nền để tinh chỉnh, xử lý tốt hơn các vấn đề trong các tình huống cụ thể, đồng thời có khả năng suy diễn tuyệt vời." + }, "Gryphe/MythoMax-L2-13b": { "description": "MythoMax-L2 (13B) là một mô hình sáng tạo, phù hợp cho nhiều lĩnh vực ứng dụng và nhiệm vụ phức tạp." }, @@ -401,6 +434,9 @@ "glm-4-flash": { "description": "GLM-4-Flash là lựa chọn lý tưởng cho các nhiệm vụ đơn giản, tốc độ nhanh nhất và giá cả phải chăng nhất." }, + "glm-4-flashx": { + "description": "GLM-4-FlashX là phiên bản nâng cấp của Flash, với tốc độ suy diễn siêu nhanh." + }, "glm-4-long": { "description": "GLM-4-Long hỗ trợ đầu vào văn bản siêu dài, phù hợp cho các nhiệm vụ ghi nhớ và xử lý tài liệu quy mô lớn." }, @@ -413,11 +449,11 @@ "glm-4v-plus": { "description": "GLM-4V-Plus có khả năng hiểu nội dung video và nhiều hình ảnh, phù hợp cho các nhiệm vụ đa phương tiện." }, - "google/gemini-flash-1.5-exp": { - "description": "Gemini 1.5 Flash 0827 cung cấp khả năng xử lý đa phương thức tối ưu, phù hợp cho nhiều tình huống nhiệm vụ phức tạp." + "google/gemini-flash-1.5": { + "description": "Gemini 1.5 Flash cung cấp khả năng xử lý đa phương thức được tối ưu hóa, phù hợp cho nhiều tình huống nhiệm vụ phức tạp." }, - "google/gemini-pro-1.5-exp": { - "description": "Gemini 1.5 Pro 0827 kết hợp công nghệ tối ưu mới nhất, mang lại khả năng xử lý dữ liệu đa phương thức hiệu quả hơn." + "google/gemini-pro-1.5": { + "description": "Gemini 1.5 Pro kết hợp công nghệ tối ưu hóa mới nhất, mang lại khả năng xử lý dữ liệu đa phương thức hiệu quả hơn." }, "google/gemma-2-27b-it": { "description": "Gemma 2 tiếp tục triết lý thiết kế nhẹ và hiệu quả." @@ -491,6 +527,33 @@ "gryphe/mythomax-l2-13b": { "description": "MythoMax l2 13B là mô hình ngôn ngữ kết hợp giữa sáng tạo và trí thông minh, kết hợp nhiều mô hình hàng đầu." }, + "hunyuan-code": { + "description": "Mô hình sinh mã mới nhất của Hunyuan, được huấn luyện trên 200B dữ liệu mã chất lượng cao, trải qua nửa năm huấn luyện dữ liệu SFT chất lượng cao, độ dài cửa sổ ngữ cảnh tăng lên 8K, đứng đầu trong các chỉ số đánh giá tự động sinh mã cho năm ngôn ngữ lớn; trong đánh giá chất lượng cao của 10 tiêu chí mã tổng hợp cho năm ngôn ngữ, hiệu suất nằm trong nhóm đầu." + }, + "hunyuan-functioncall": { + "description": "Mô hình FunctionCall với cấu trúc MOE mới nhất của Hunyuan, được huấn luyện trên dữ liệu FunctionCall chất lượng cao, với cửa sổ ngữ cảnh đạt 32K, dẫn đầu trong nhiều chỉ số đánh giá." + }, + "hunyuan-lite": { + "description": "Nâng cấp lên cấu trúc MOE, với cửa sổ ngữ cảnh 256k, dẫn đầu nhiều mô hình mã nguồn mở trong các bộ đánh giá NLP, mã, toán học, ngành nghề, v.v." + }, + "hunyuan-pro": { + "description": "Mô hình văn bản dài MOE-32K với quy mô hàng triệu tham số. Đạt được mức độ dẫn đầu tuyệt đối trên nhiều benchmark, có khả năng xử lý các lệnh phức tạp và suy diễn, có khả năng toán học phức tạp, hỗ trợ functioncall, được tối ưu hóa cho các lĩnh vực dịch thuật đa ngôn ngữ, tài chính, pháp lý và y tế." + }, + "hunyuan-role": { + "description": "Mô hình đóng vai trò mới nhất của Hunyuan, được tinh chỉnh và huấn luyện bởi Hunyuan, dựa trên mô hình Hunyuan kết hợp với bộ dữ liệu tình huống đóng vai trò để tăng cường huấn luyện, có hiệu suất cơ bản tốt hơn trong các tình huống đóng vai trò." + }, + "hunyuan-standard": { + "description": "Sử dụng chiến lược định tuyến tốt hơn, đồng thời giảm thiểu vấn đề cân bằng tải và đồng nhất chuyên gia. Về mặt văn bản dài, chỉ số tìm kiếm đạt 99.9%. MOE-32K có giá trị hiệu suất tương đối cao, cân bằng giữa hiệu quả và giá cả, có thể xử lý đầu vào văn bản dài." + }, + "hunyuan-standard-256K": { + "description": "Sử dụng chiến lược định tuyến tốt hơn, đồng thời giảm thiểu vấn đề cân bằng tải và đồng nhất chuyên gia. Về mặt văn bản dài, chỉ số tìm kiếm đạt 99.9%. MOE-256K đã có bước đột phá về độ dài và hiệu quả, mở rộng đáng kể độ dài đầu vào có thể." + }, + "hunyuan-turbo": { + "description": "Phiên bản xem trước của thế hệ mới mô hình ngôn ngữ lớn Hunyuan, sử dụng cấu trúc mô hình chuyên gia hỗn hợp (MoE) hoàn toàn mới, so với hunyuan-pro, hiệu suất suy diễn nhanh hơn và hiệu quả mạnh mẽ hơn." + }, + "hunyuan-vision": { + "description": "Mô hình đa phương thức mới nhất của Hunyuan, hỗ trợ đầu vào hình ảnh + văn bản để tạo ra nội dung văn bản." + }, "internlm/internlm2_5-20b-chat": { "description": "Mô hình mã nguồn mở sáng tạo InternLM2.5, thông qua số lượng tham số lớn, nâng cao trí thông minh trong đối thoại." }, @@ -634,6 +697,12 @@ "meta-llama/llama-3.1-8b-instruct:free": { "description": "LLaMA 3.1 cung cấp hỗ trợ đa ngôn ngữ, là một trong những mô hình sinh hàng đầu trong ngành." }, + "meta-llama/llama-3.2-11b-vision-instruct": { + "description": "LLaMA 3.2 được thiết kế để xử lý các nhiệm vụ kết hợp dữ liệu hình ảnh và văn bản. Nó thể hiện xuất sắc trong các nhiệm vụ mô tả hình ảnh và hỏi đáp hình ảnh, vượt qua ranh giới giữa sinh ngôn ngữ và suy diễn hình ảnh." + }, + "meta-llama/llama-3.2-90b-vision-instruct": { + "description": "LLaMA 3.2 được thiết kế để xử lý các nhiệm vụ kết hợp dữ liệu hình ảnh và văn bản. Nó thể hiện xuất sắc trong các nhiệm vụ mô tả hình ảnh và hỏi đáp hình ảnh, vượt qua ranh giới giữa sinh ngôn ngữ và suy diễn hình ảnh." + }, "meta.llama3-1-405b-instruct-v1:0": { "description": "Meta Llama 3.1 405B Instruct là mô hình lớn nhất và mạnh mẽ nhất trong mô hình Llama 3.1 Instruct, là một mô hình sinh dữ liệu và suy luận đối thoại tiên tiến, cũng có thể được sử dụng làm nền tảng cho việc tiền huấn luyện hoặc tinh chỉnh chuyên sâu trong các lĩnh vực cụ thể. Các mô hình ngôn ngữ lớn đa ngôn ngữ (LLMs) mà Llama 3.1 cung cấp là một tập hợp các mô hình sinh đã được tiền huấn luyện và điều chỉnh theo chỉ dẫn, bao gồm kích thước 8B, 70B và 405B (đầu vào/đầu ra văn bản). Các mô hình văn bản điều chỉnh theo chỉ dẫn của Llama 3.1 (8B, 70B, 405B) được tối ưu hóa cho các trường hợp đối thoại đa ngôn ngữ và đã vượt qua nhiều mô hình trò chuyện mã nguồn mở có sẵn trong các bài kiểm tra chuẩn ngành phổ biến. Llama 3.1 được thiết kế để sử dụng cho nhiều mục đích thương mại và nghiên cứu bằng nhiều ngôn ngữ. Các mô hình văn bản điều chỉnh theo chỉ dẫn phù hợp cho các cuộc trò chuyện giống như trợ lý, trong khi các mô hình đã được tiền huấn luyện có thể thích ứng với nhiều nhiệm vụ sinh ngôn ngữ tự nhiên khác nhau. Mô hình Llama 3.1 cũng hỗ trợ việc cải thiện các mô hình khác bằng cách sử dụng đầu ra của nó, bao gồm sinh dữ liệu tổng hợp và tinh chỉnh. Llama 3.1 là một mô hình ngôn ngữ tự hồi quy sử dụng kiến trúc biến áp tối ưu. Phiên bản điều chỉnh sử dụng tinh chỉnh có giám sát (SFT) và học tăng cường có phản hồi từ con người (RLHF) để phù hợp với sở thích của con người về tính hữu ích và an toàn." }, diff --git a/locales/vi-VN/providers.json b/locales/vi-VN/providers.json index be0e51f528b0..21c4c79606c1 100644 --- a/locales/vi-VN/providers.json +++ b/locales/vi-VN/providers.json @@ -30,6 +30,9 @@ "groq": { "description": "Bộ máy suy diễn LPU của Groq thể hiện xuất sắc trong các bài kiểm tra chuẩn mô hình ngôn ngữ lớn (LLM) độc lập mới nhất, định nghĩa lại tiêu chuẩn cho các giải pháp AI với tốc độ và hiệu quả đáng kinh ngạc. Groq là đại diện cho tốc độ suy diễn tức thì, thể hiện hiệu suất tốt trong triển khai dựa trên đám mây." }, + "hunyuan": { + "description": "Mô hình ngôn ngữ lớn được phát triển bởi Tencent, có khả năng sáng tạo tiếng Trung mạnh mẽ, khả năng suy luận logic trong các ngữ cảnh phức tạp, và khả năng thực hiện nhiệm vụ đáng tin cậy." + }, "minimax": { "description": "MiniMax là công ty công nghệ trí tuệ nhân tạo tổng quát được thành lập vào năm 2021, cam kết cùng người dùng sáng tạo trí thông minh. MiniMax đã tự phát triển nhiều mô hình lớn đa phương thức, bao gồm mô hình văn bản MoE với một triệu tham số, mô hình giọng nói và mô hình hình ảnh. Họ cũng đã phát hành các ứng dụng như AI Hải Lý." }, @@ -75,6 +78,9 @@ "upstage": { "description": "Upstage tập trung vào việc phát triển các mô hình AI cho nhiều nhu cầu thương mại khác nhau, bao gồm Solar LLM và AI tài liệu, nhằm đạt được trí thông minh nhân tạo tổng quát (AGI) cho công việc. Tạo ra các đại lý đối thoại đơn giản thông qua Chat API, và hỗ trợ gọi chức năng, dịch thuật, nhúng và ứng dụng trong các lĩnh vực cụ thể." }, + "wenxin": { + "description": "Nền tảng phát triển và dịch vụ ứng dụng AI gốc với mô hình lớn một cửa dành cho doanh nghiệp, cung cấp chuỗi công cụ toàn diện và dễ sử dụng cho phát triển mô hình trí tuệ nhân tạo sinh sinh và phát triển ứng dụng." + }, "zeroone": { "description": "01.AI tập trung vào công nghệ trí tuệ nhân tạo trong kỷ nguyên AI 2.0, thúc đẩy mạnh mẽ sự đổi mới và ứng dụng của \"người + trí tuệ nhân tạo\", sử dụng các mô hình mạnh mẽ và công nghệ AI tiên tiến để nâng cao năng suất của con người và thực hiện sự trao quyền công nghệ." }, diff --git a/locales/zh-CN/error.json b/locales/zh-CN/error.json index 14fb419e362f..ce33af3b23e5 100644 --- a/locales/zh-CN/error.json +++ b/locales/zh-CN/error.json @@ -70,6 +70,7 @@ "InvalidAccessCode": "密码不正确或为空,请输入正确的访问密码,或者添加自定义 API Key", "InvalidClerkUser": "很抱歉,你当前尚未登录,请先登录或注册账号后继续操作", "LocationNotSupportError": "很抱歉,你的所在地区不支持此模型服务,可能是由于区域限制或服务未开通。请确认当前地区是否支持使用此服务,或尝试使用切换到其他地区后重试。", + "QuotaLimitReached": "很抱歉,当前 Token 用量或请求次数已达该秘钥的配额(quota)上限,请增加该秘钥的配额或稍后再试", "InvalidProviderAPIKey": "{{provider}} API Key 不正确或为空,请检查 {{provider}} API Key 后重试", "ProviderBizError": "请求 {{provider}} 服务出错,请根据以下信息排查或重试", "NoOpenAIAPIKey": "OpenAI API Key 不正确或为空,请添加自定义 OpenAI API Key", diff --git a/locales/zh-CN/modelProvider.json b/locales/zh-CN/modelProvider.json index 760c2109c667..216c75f040fe 100644 --- a/locales/zh-CN/modelProvider.json +++ b/locales/zh-CN/modelProvider.json @@ -112,6 +112,26 @@ "title": "下载指定的 Ollama 模型" } }, + "wenxin": { + "accessKey": { + "desc": "填入百度千帆平台的 Access Key", + "placeholder": "Qianfan Access Key", + "title": "Access Key" + }, + "checker": { + "desc": "测试 AccessKey / SecretAccess 是否填写正确" + }, + "secretKey": { + "desc": "填入百度千帆平台 Secret Key", + "placeholder": "Qianfan Secret Key", + "title": "Secret Key" + }, + "unlock": { + "customRegion": "自定义服务区域", + "description": "输入你的 AccessKey / SecretKey 即可开始会话。应用不会记录你的鉴权配置", + "title": "使用自定义文心一言鉴权信息" + } + }, "zeroone": { "title": "01.AI 零一万物" }, diff --git a/locales/zh-CN/models.json b/locales/zh-CN/models.json index 8170b4b2b137..679925ded7c9 100644 --- a/locales/zh-CN/models.json +++ b/locales/zh-CN/models.json @@ -32,6 +32,39 @@ "Baichuan4": { "description": "模型能力国内第一,在知识百科、长文本、生成创作等中文任务上超越国外主流模型。还具备行业领先的多模态能力,多项权威评测基准表现优异。" }, + "ERNIE-3.5-128K": { + "description": "百度自研的旗舰级大规模⼤语⾔模型,覆盖海量中英文语料,具有强大的通用能力,可满足绝大部分对话问答、创作生成、插件应用场景要求;支持自动对接百度搜索插件,保障问答信息时效。" + }, + "ERNIE-3.5-8K": { + "description": "百度自研的旗舰级大规模⼤语⾔模型,覆盖海量中英文语料,具有强大的通用能力,可满足绝大部分对话问答、创作生成、插件应用场景要求;支持自动对接百度搜索插件,保障问答信息时效。" + }, + "ERNIE-3.5-8K-Preview": { + "description": "百度自研的旗舰级大规模⼤语⾔模型,覆盖海量中英文语料,具有强大的通用能力,可满足绝大部分对话问答、创作生成、插件应用场景要求;支持自动对接百度搜索插件,保障问答信息时效。" + }, + "ERNIE-4.0-8K-Latest": { + "description": "百度自研的旗舰级超大规模⼤语⾔模型,相较ERNIE 3.5实现了模型能力全面升级,广泛适用于各领域复杂任务场景;支持自动对接百度搜索插件,保障问答信息时效。" + }, + "ERNIE-4.0-8K-Preview": { + "description": "百度自研的旗舰级超大规模⼤语⾔模型,相较ERNIE 3.5实现了模型能力全面升级,广泛适用于各领域复杂任务场景;支持自动对接百度搜索插件,保障问答信息时效。" + }, + "ERNIE-4.0-Turbo-8K": { + "description": "百度自研的旗舰级超大规模⼤语⾔模型,综合效果表现出色,广泛适用于各领域复杂任务场景;支持自动对接百度搜索插件,保障问答信息时效。相较于ERNIE 4.0在性能表现上更优秀" + }, + "ERNIE-4.0-Turbo-8K-Preview": { + "description": "百度自研的旗舰级超大规模⼤语⾔模型,综合效果表现出色,广泛适用于各领域复杂任务场景;支持自动对接百度搜索插件,保障问答信息时效。相较于ERNIE 4.0在性能表现上更优秀" + }, + "ERNIE-Character-8K": { + "description": "百度自研的垂直场景大语言模型,适合游戏NPC、客服对话、对话角色扮演等应用场景,人设风格更为鲜明、一致,指令遵循能力更强,推理性能更优。" + }, + "ERNIE-Lite-Pro-128K": { + "description": "百度自研的轻量级大语言模型,兼顾优异的模型效果与推理性能,效果比ERNIE Lite更优,适合低算力AI加速卡推理使用。" + }, + "ERNIE-Speed-128K": { + "description": "百度2024年最新发布的自研高性能大语言模型,通用能力优异,适合作为基座模型进行精调,更好地处理特定场景问题,同时具备极佳的推理性能。" + }, + "ERNIE-Speed-Pro-128K": { + "description": "百度2024年最新发布的自研高性能大语言模型,通用能力优异,效果比ERNIE Speed更优,适合作为基座模型进行精调,更好地处理特定场景问题,同时具备极佳的推理性能。" + }, "Gryphe/MythoMax-L2-13b": { "description": "MythoMax-L2 (13B) 是一种创新模型,适合多领域应用和复杂任务。" }, @@ -399,7 +432,10 @@ "description": "GLM-4-AllTools 是一个多功能智能体模型,优化以支持复杂指令规划与工具调用,如网络浏览、代码解释和文本生成,适用于多任务执行。" }, "glm-4-flash": { - "description": "GLM-4-Flash 是处理简单任务的理想选择,速度最快且价格最优惠。" + "description": "GLM-4-Flash 是处理简单任务的理想选择,速度最快且免费。" + }, + "glm-4-flashx": { + "description": "GLM-4-FlashX 是Flash的增强版本,超快推理速度。" }, "glm-4-long": { "description": "GLM-4-Long 支持超长文本输入,适合记忆型任务与大规模文档处理。" @@ -413,11 +449,11 @@ "glm-4v-plus": { "description": "GLM-4V-Plus 具备对视频内容及多图片的理解能力,适合多模态任务。" }, - "google/gemini-flash-1.5-exp": { - "description": "Gemini 1.5 Flash 0827 提供了优化后的多模态处理能力,适用多种复杂任务场景。" + "google/gemini-flash-1.5": { + "description": "Gemini 1.5 Flash 提供了优化后的多模态处理能力,适用多种复杂任务场景。" }, - "google/gemini-pro-1.5-exp": { - "description": "Gemini 1.5 Pro 0827 结合最新优化技术,带来更高效的多模态数据处理能力。" + "google/gemini-pro-1.5": { + "description": "Gemini 1.5 Pro 结合最新优化技术,带来更高效的多模态数据处理能力。" }, "google/gemma-2-27b-it": { "description": "Gemma 2 延续了轻量化与高效的设计理念。" @@ -491,6 +527,33 @@ "gryphe/mythomax-l2-13b": { "description": "MythoMax l2 13B 是一款合并了多个顶尖模型的创意与智能相结合的语言模型。" }, + "hunyuan-code": { + "description": "混元最新代码生成模型,经过 200B 高质量代码数据增训基座模型,迭代半年高质量 SFT 数据训练,上下文长窗口长度增大到 8K,五大语言代码生成自动评测指标上位居前列;五大语言10项考量各方面综合代码任务人工高质量评测上,性能处于第一梯队" + }, + "hunyuan-functioncall": { + "description": "混元最新 MOE 架构 FunctionCall 模型,经过高质量的 FunctionCall 数据训练,上下文窗口达 32K,在多个维度的评测指标上处于领先。" + }, + "hunyuan-lite": { + "description": "升级为 MOE 结构,上下文窗口为 256k ,在 NLP,代码,数学,行业等多项评测集上领先众多开源模型。" + }, + "hunyuan-pro": { + "description": "万亿级参数规模 MOE-32K 长文模型。在各种 benchmark 上达到绝对领先的水平,复杂指令和推理,具备复杂数学能力,支持 functioncall,在多语言翻译、金融法律医疗等领域应用重点优化。" + }, + "hunyuan-role": { + "description": "混元最新版角色扮演模型,混元官方精调训练推出的角色扮演模型,基于混元模型结合角色扮演场景数据集进行增训,在角色扮演场景具有更好的基础效果。" + }, + "hunyuan-standard": { + "description": "采用更优的路由策略,同时缓解了负载均衡和专家趋同的问题。长文方面,大海捞针指标达到99.9%。MOE-32K 性价比相对更高,在平衡效果、价格的同时,可对实现对长文本输入的处理。" + }, + "hunyuan-standard-256K": { + "description": "采用更优的路由策略,同时缓解了负载均衡和专家趋同的问题。长文方面,大海捞针指标达到99.9%。MOE-256K 在长度和效果上进一步突破,极大的扩展了可输入长度。" + }, + "hunyuan-turbo": { + "description": "混元全新一代大语言模型的预览版,采用全新的混合专家模型(MoE)结构,相比hunyuan-pro推理效率更快,效果表现更强。" + }, + "hunyuan-vision": { + "description": "混元最新多模态模型,支持图片+文本输入生成文本内容。" + }, "internlm/internlm2_5-20b-chat": { "description": "创新的开源模型InternLM2.5,通过大规模的参数提高了对话智能。" }, @@ -634,6 +697,12 @@ "meta-llama/llama-3.1-8b-instruct:free": { "description": "LLaMA 3.1 提供多语言支持,是业界领先的生成模型之一。" }, + "meta-llama/llama-3.2-11b-vision-instruct": { + "description": "LLaMA 3.2 旨在处理结合视觉和文本数据的任务。它在图像描述和视觉问答等任务中表现出色,跨越了语言生成和视觉推理之间的鸿沟。" + }, + "meta-llama/llama-3.2-90b-vision-instruct": { + "description": "LLaMA 3.2 旨在处理结合视觉和文本数据的任务。它在图像描述和视觉问答等任务中表现出色,跨越了语言生成和视觉推理之间的鸿沟。" + }, "meta.llama3-1-405b-instruct-v1:0": { "description": "Meta Llama 3.1 405B Instruct 是 Llama 3.1 Instruct 模型中最大、最强大的模型,是一款高度先进的对话推理和合成数据生成模型,也可以用作在特定领域进行专业持续预训练或微调的基础。Llama 3.1 提供的多语言大型语言模型 (LLMs) 是一组预训练的、指令调整的生成模型,包括 8B、70B 和 405B 大小 (文本输入/输出)。Llama 3.1 指令调整的文本模型 (8B、70B、405B) 专为多语言对话用例进行了优化,并在常见的行业基准测试中超过了许多可用的开源聊天模型。Llama 3.1 旨在用于多种语言的商业和研究用途。指令调整的文本模型适用于类似助手的聊天,而预训练模型可以适应各种自然语言生成任务。Llama 3.1 模型还支持利用其模型的输出来改进其他模型,包括合成数据生成和精炼。Llama 3.1 是使用优化的变压器架构的自回归语言模型。调整版本使用监督微调 (SFT) 和带有人类反馈的强化学习 (RLHF) 来符合人类对帮助性和安全性的偏好。" }, @@ -722,10 +791,10 @@ "description": "Hermes 2 Pro Llama 3 8B 是 Nous Hermes 2的升级版本,包含最新的内部开发的数据集。" }, "o1-mini": { - "description": "o1-mini是一款针对编程、数学和科学应用场景而设计的快速、经济高效的推理模型。该模型具有128K上下文和2023年10月的知识截止日期。" + "description": "Smaller, faster, and 80% cheaper than o1-preview, performs well at code generation and small context operations." }, "o1-preview": { - "description": "o1是OpenAI新的推理模型,适用于需要广泛通用知识的复杂任务。该模型具有128K上下文和2023年10月的知识截止日期。" + "description": "Focused on advanced reasoning and solving complex problems, including math and science tasks. Ideal for applications that require deep contextual understanding and agentic workflows." }, "open-codestral-mamba": { "description": "Codestral Mamba是专注于代码生成的Mamba 2语言模型,为先进的代码和推理任务提供强力支持。" diff --git a/locales/zh-CN/providers.json b/locales/zh-CN/providers.json index 11c658e51224..ce1fa0f77a25 100644 --- a/locales/zh-CN/providers.json +++ b/locales/zh-CN/providers.json @@ -30,6 +30,9 @@ "groq": { "description": "Groq 的 LPU 推理引擎在最新的独立大语言模型(LLM)基准测试中表现卓越,以其惊人的速度和效率重新定义了 AI 解决方案的标准。Groq 是一种即时推理速度的代表,在基于云的部署中展现了良好的性能。" }, + "hunyuan": { + "description": "由腾讯研发的大语言模型,具备强大的中文创作能力,复杂语境下的逻辑推理能力,以及可靠的任务执行能力" + }, "minimax": { "description": "MiniMax 是 2021 年成立的通用人工智能科技公司,致力于与用户共创智能。MiniMax 自主研发了不同模态的通用大模型,其中包括万亿参数的 MoE 文本大模型、语音大模型以及图像大模型。并推出了海螺 AI 等应用。" }, @@ -75,6 +78,9 @@ "upstage": { "description": "Upstage 专注于为各种商业需求开发AI模型,包括 Solar LLM 和文档 AI,旨在实现工作的人造通用智能(AGI)。通过 Chat API 创建简单的对话代理,并支持功能调用、翻译、嵌入以及特定领域应用。" }, + "wenxin": { + "description": "企业级一站式大模型与AI原生应用开发及服务平台,提供最全面易用的生成式人工智能模型开发、应用开发全流程工具链" + }, "zeroone": { "description": "01.AI 专注于AI 2.0时代的人工智能技术,大力推动“人+人工智能”的创新和应用,采用超强大模型和先进AI技术以提升人类生产力,实现技术赋能。" }, diff --git a/locales/zh-TW/error.json b/locales/zh-TW/error.json index 938947f33037..24154d66e2c7 100644 --- a/locales/zh-TW/error.json +++ b/locales/zh-TW/error.json @@ -81,6 +81,7 @@ "PluginServerError": "外掛伺服器請求回傳錯誤。請根據下面的錯誤資訊檢查您的外掛描述檔案、外掛設定或伺服器實作", "PluginSettingsInvalid": "該外掛需要正確設定後才可以使用。請檢查您的設定是否正確", "ProviderBizError": "請求 {{provider}} 服務出錯,請根據以下資訊排查或重試", + "QuotaLimitReached": "很抱歉,當前 Token 用量或請求次數已達該金鑰的配額上限,請增加該金鑰的配額或稍後再試", "StreamChunkError": "流式請求的消息塊解析錯誤,請檢查當前 API 介面是否符合標準規範,或聯繫你的 API 供應商諮詢", "SubscriptionPlanLimit": "您的訂閱額度已用盡,無法使用該功能,請升級到更高的計劃,或購買資源包後繼續使用", "UnknownChatFetchError": "很抱歉,遇到未知請求錯誤,請根據以下資訊排查或重試" diff --git a/locales/zh-TW/modelProvider.json b/locales/zh-TW/modelProvider.json index f453e73908cc..e502fbaa19d8 100644 --- a/locales/zh-TW/modelProvider.json +++ b/locales/zh-TW/modelProvider.json @@ -112,6 +112,26 @@ "title": "下載指定的 Ollama 模型" } }, + "wenxin": { + "accessKey": { + "desc": "填入百度千帆平台的 Access Key", + "placeholder": "千帆 Access Key", + "title": "Access Key" + }, + "checker": { + "desc": "測試 AccessKey / SecretAccess 是否填寫正確" + }, + "secretKey": { + "desc": "填入百度千帆平台 Secret Key", + "placeholder": "千帆 Secret Key", + "title": "Secret Key" + }, + "unlock": { + "customRegion": "自訂服務區域", + "description": "輸入你的 AccessKey / SecretKey 即可開始會話。應用不會記錄你的鑑權配置", + "title": "使用自訂文心一言鑑權資訊" + } + }, "zeroone": { "title": "01.AI 零一萬物" }, diff --git a/locales/zh-TW/models.json b/locales/zh-TW/models.json index c49740e53c5b..5b00f24a09c2 100644 --- a/locales/zh-TW/models.json +++ b/locales/zh-TW/models.json @@ -32,6 +32,39 @@ "Baichuan4": { "description": "模型能力國內第一,在知識百科、長文本、生成創作等中文任務上超越國外主流模型。還具備行業領先的多模態能力,多項權威評測基準表現優異。" }, + "ERNIE-3.5-128K": { + "description": "百度自研的旗艦級大規模語言模型,覆蓋海量中英文語料,具有強大的通用能力,可滿足絕大部分對話問答、創作生成、插件應用場景要求;支持自動對接百度搜索插件,保障問答信息時效。" + }, + "ERNIE-3.5-8K": { + "description": "百度自研的旗艦級大規模語言模型,覆蓋海量中英文語料,具有強大的通用能力,可滿足絕大部分對話問答、創作生成、插件應用場景要求;支持自動對接百度搜索插件,保障問答信息時效。" + }, + "ERNIE-3.5-8K-Preview": { + "description": "百度自研的旗艦級大規模語言模型,覆蓋海量中英文語料,具有強大的通用能力,可滿足絕大部分對話問答、創作生成、插件應用場景要求;支持自動對接百度搜索插件,保障問答信息時效。" + }, + "ERNIE-4.0-8K-Latest": { + "description": "百度自研的旗艦級超大規模語言模型,相較ERNIE 3.5實現了模型能力全面升級,廣泛適用於各領域複雜任務場景;支持自動對接百度搜索插件,保障問答信息時效。" + }, + "ERNIE-4.0-8K-Preview": { + "description": "百度自研的旗艦級超大規模語言模型,相較ERNIE 3.5實現了模型能力全面升級,廣泛適用於各領域複雜任務場景;支持自動對接百度搜索插件,保障問答信息時效。" + }, + "ERNIE-4.0-Turbo-8K": { + "description": "百度自研的旗艦級超大規模語言模型,綜合效果表現出色,廣泛適用於各領域複雜任務場景;支持自動對接百度搜索插件,保障問答信息時效。相較於ERNIE 4.0在性能表現上更優秀。" + }, + "ERNIE-4.0-Turbo-8K-Preview": { + "description": "百度自研的旗艦級超大規模語言模型,綜合效果表現出色,廣泛適用於各領域複雜任務場景;支持自動對接百度搜索插件,保障問答信息時效。相較於ERNIE 4.0在性能表現上更優秀。" + }, + "ERNIE-Character-8K": { + "description": "百度自研的垂直場景大語言模型,適合遊戲NPC、客服對話、對話角色扮演等應用場景,人設風格更為鮮明、一致,指令遵循能力更強,推理性能更優。" + }, + "ERNIE-Lite-Pro-128K": { + "description": "百度自研的輕量級大語言模型,兼顧優異的模型效果與推理性能,效果比ERNIE Lite更優,適合低算力AI加速卡推理使用。" + }, + "ERNIE-Speed-128K": { + "description": "百度2024年最新發布的自研高性能大語言模型,通用能力優異,適合作為基座模型進行精調,更好地處理特定場景問題,同時具備極佳的推理性能。" + }, + "ERNIE-Speed-Pro-128K": { + "description": "百度2024年最新發布的自研高性能大語言模型,通用能力優異,效果比ERNIE Speed更優,適合作為基座模型進行精調,更好地處理特定場景問題,同時具備極佳的推理性能。" + }, "Gryphe/MythoMax-L2-13b": { "description": "MythoMax-L2 (13B) 是一種創新模型,適合多領域應用和複雜任務。" }, @@ -401,6 +434,9 @@ "glm-4-flash": { "description": "GLM-4-Flash是處理簡單任務的理想選擇,速度最快且價格最優惠。" }, + "glm-4-flashx": { + "description": "GLM-4-FlashX 是 Flash 的增強版本,具備超快的推理速度。" + }, "glm-4-long": { "description": "GLM-4-Long支持超長文本輸入,適合記憶型任務與大規模文檔處理。" }, @@ -413,11 +449,11 @@ "glm-4v-plus": { "description": "GLM-4V-Plus具備對視頻內容及多圖片的理解能力,適合多模態任務。" }, - "google/gemini-flash-1.5-exp": { - "description": "Gemini 1.5 Flash 0827 提供了優化後的多模態處理能力,適用多種複雜任務場景。" + "google/gemini-flash-1.5": { + "description": "Gemini 1.5 Flash 提供了優化後的多模態處理能力,適用於多種複雜任務場景。" }, - "google/gemini-pro-1.5-exp": { - "description": "Gemini 1.5 Pro 0827 結合最新優化技術,帶來更高效的多模態數據處理能力。" + "google/gemini-pro-1.5": { + "description": "Gemini 1.5 Pro 結合最新的優化技術,帶來更高效的多模態數據處理能力。" }, "google/gemma-2-27b-it": { "description": "Gemma 2 延續了輕量化與高效的設計理念。" @@ -491,6 +527,33 @@ "gryphe/mythomax-l2-13b": { "description": "MythoMax l2 13B 是一款合併了多個頂尖模型的創意與智能相結合的語言模型。" }, + "hunyuan-code": { + "description": "混元最新代碼生成模型,經過 200B 高質量代碼數據增訓基座模型,迭代半年高質量 SFT 數據訓練,上下文長窗口長度增大到 8K,五大語言代碼生成自動評測指標上位居前列;五大語言 10 項考量各方面綜合代碼任務人工高質量評測上,性能處於第一梯隊。" + }, + "hunyuan-functioncall": { + "description": "混元最新 MOE 架構 FunctionCall 模型,經過高質量的 FunctionCall 數據訓練,上下文窗口達 32K,在多個維度的評測指標上處於領先。" + }, + "hunyuan-lite": { + "description": "升級為 MOE 結構,上下文窗口為 256k,在 NLP、代碼、數學、行業等多項評測集上領先眾多開源模型。" + }, + "hunyuan-pro": { + "description": "萬億級參數規模 MOE-32K 長文模型。在各種 benchmark 上達到絕對領先的水平,具備複雜指令和推理能力,支持 functioncall,在多語言翻譯、金融法律醫療等領域應用重點優化。" + }, + "hunyuan-role": { + "description": "混元最新版角色扮演模型,混元官方精調訓練推出的角色扮演模型,基於混元模型結合角色扮演場景數據集進行增訓,在角色扮演場景具有更好的基礎效果。" + }, + "hunyuan-standard": { + "description": "採用更優的路由策略,同時緩解了負載均衡和專家趨同的問題。長文方面,大海撈針指標達到 99.9%。MOE-32K 性價比相對更高,在平衡效果和價格的同時,可實現對長文本輸入的處理。" + }, + "hunyuan-standard-256K": { + "description": "採用更優的路由策略,同時緩解了負載均衡和專家趨同的問題。長文方面,大海撈針指標達到 99.9%。MOE-256K 在長度和效果上進一步突破,極大地擴展了可輸入長度。" + }, + "hunyuan-turbo": { + "description": "混元全新一代大語言模型的預覽版,採用全新的混合專家模型(MoE)結構,相較於 hunyuan-pro 推理效率更快,效果表現更強。" + }, + "hunyuan-vision": { + "description": "混元最新多模態模型,支持圖片 + 文本輸入生成文本內容。" + }, "internlm/internlm2_5-20b-chat": { "description": "創新的開源模型InternLM2.5,通過大規模的參數提高了對話智能。" }, @@ -634,6 +697,12 @@ "meta-llama/llama-3.1-8b-instruct:free": { "description": "LLaMA 3.1 提供多語言支持,是業界領先的生成模型之一。" }, + "meta-llama/llama-3.2-11b-vision-instruct": { + "description": "LLaMA 3.2 旨在處理結合視覺和文本數據的任務。它在圖像描述和視覺問答等任務中表現出色,跨越了語言生成和視覺推理之間的鴻溝。" + }, + "meta-llama/llama-3.2-90b-vision-instruct": { + "description": "LLaMA 3.2 旨在處理結合視覺和文本數據的任務。它在圖像描述和視覺問答等任務中表現出色,跨越了語言生成和視覺推理之間的鴻溝。" + }, "meta.llama3-1-405b-instruct-v1:0": { "description": "Meta Llama 3.1 405B Instruct 是 Llama 3.1 Instruct 模型中最大、最強大的模型,是一款高度先進的對話推理和合成數據生成模型,也可以用作在特定領域進行專業持續預訓練或微調的基礎。Llama 3.1 提供的多語言大型語言模型 (LLMs) 是一組預訓練的、指令調整的生成模型,包括 8B、70B 和 405B 大小 (文本輸入/輸出)。Llama 3.1 指令調整的文本模型 (8B、70B、405B) 專為多語言對話用例進行了優化,並在常見的行業基準測試中超過了許多可用的開源聊天模型。Llama 3.1 旨在用於多種語言的商業和研究用途。指令調整的文本模型適用於類似助手的聊天,而預訓練模型可以適應各種自然語言生成任務。Llama 3.1 模型還支持利用其模型的輸出來改進其他模型,包括合成數據生成和精煉。Llama 3.1 是使用優化的變壓器架構的自回歸語言模型。調整版本使用監督微調 (SFT) 和帶有人類反饋的強化學習 (RLHF) 來符合人類對幫助性和安全性的偏好。" }, diff --git a/locales/zh-TW/providers.json b/locales/zh-TW/providers.json index 74132fe2041d..0c5f40f61fab 100644 --- a/locales/zh-TW/providers.json +++ b/locales/zh-TW/providers.json @@ -30,6 +30,9 @@ "groq": { "description": "Groq 的 LPU 推理引擎在最新的獨立大語言模型(LLM)基準測試中表現卓越,以其驚人的速度和效率重新定義了 AI 解決方案的標準。Groq 是一種即時推理速度的代表,在基於雲的部署中展現了良好的性能。" }, + "hunyuan": { + "description": "由騰訊研發的大語言模型,具備強大的中文創作能力、複雜語境下的邏輯推理能力,以及可靠的任務執行能力" + }, "minimax": { "description": "MiniMax 是 2021 年成立的通用人工智慧科技公司,致力於與用戶共創智能。MiniMax 自主研發了不同模態的通用大模型,其中包括萬億參數的 MoE 文本大模型、語音大模型以及圖像大模型。並推出了海螺 AI 等應用。" }, @@ -75,6 +78,9 @@ "upstage": { "description": "Upstage 專注於為各種商業需求開發 AI 模型,包括 Solar LLM 和文檔 AI,旨在實現工作的人工通用智能(AGI)。通過 Chat API 創建簡單的對話代理,並支持功能調用、翻譯、嵌入以及特定領域應用。" }, + "wenxin": { + "description": "企業級一站式大模型與AI原生應用開發及服務平台,提供最全面易用的生成式人工智慧模型開發、應用開發全流程工具鏈" + }, "zeroone": { "description": "01.AI 專注於 AI 2.0 時代的人工智慧技術,大力推動「人+人工智慧」的創新和應用,採用超強大模型和先進 AI 技術以提升人類生產力,實現技術賦能。" }, diff --git a/package.json b/package.json index d6021215ff65..122671fa2e38 100644 --- a/package.json +++ b/package.json @@ -108,6 +108,7 @@ "@aws-sdk/s3-request-presigner": "^3.637.0", "@azure/core-rest-pipeline": "1.16.0", "@azure/openai": "1.0.0-beta.12", + "@baiducloud/qianfan": "^0.1.9", "@cfworker/json-schema": "^2.0.0", "@clerk/localizations": "^3.0.4", "@clerk/nextjs": "^5.3.3", @@ -120,7 +121,7 @@ "@langchain/community": "^0.2.31", "@lobehub/chat-plugin-sdk": "^1.32.4", "@lobehub/chat-plugins-gateway": "^1.9.0", - "@lobehub/icons": "^1.33.7", + "@lobehub/icons": "^1.34.2", "@lobehub/tts": "^1.24.3", "@lobehub/ui": "^1.150.3", "@neondatabase/serverless": "^0.9.4", diff --git a/src/app/(main)/settings/llm/ProviderList/Wenxin/index.tsx b/src/app/(main)/settings/llm/ProviderList/Wenxin/index.tsx new file mode 100644 index 000000000000..afee7e97d219 --- /dev/null +++ b/src/app/(main)/settings/llm/ProviderList/Wenxin/index.tsx @@ -0,0 +1,46 @@ +'use client'; + +import { Wenxin } from '@lobehub/icons'; +import { Input } from 'antd'; +import { useTranslation } from 'react-i18next'; + +import { WenxinProviderCard } from '@/config/modelProviders'; +import { GlobalLLMProviderKey } from '@/types/user/settings'; + +import { KeyVaultsConfigKey } from '../../const'; +import { ProviderItem } from '../../type'; + +const providerKey: GlobalLLMProviderKey = 'wenxin'; + +export const useWenxinProvider = (): ProviderItem => { + const { t } = useTranslation('modelProvider'); + + return { + ...WenxinProviderCard, + apiKeyItems: [ + { + children: ( + + ), + desc: t(`${providerKey}.accessKey.desc`), + label: t(`${providerKey}.accessKey.title`), + name: [KeyVaultsConfigKey, providerKey, 'accessKey'], + }, + { + children: ( + + ), + desc: t(`${providerKey}.secretKey.desc`), + label: t(`${providerKey}.secretKey.title`), + name: [KeyVaultsConfigKey, providerKey, 'secretKey'], + }, + ], + title: , + }; +}; diff --git a/src/app/(main)/settings/llm/ProviderList/providers.tsx b/src/app/(main)/settings/llm/ProviderList/providers.tsx index 8fb6fc359b64..d07e93fe0546 100644 --- a/src/app/(main)/settings/llm/ProviderList/providers.tsx +++ b/src/app/(main)/settings/llm/ProviderList/providers.tsx @@ -33,6 +33,7 @@ import { useBedrockProvider } from './Bedrock'; import { useGithubProvider } from './Github'; import { useOllamaProvider } from './Ollama'; import { useOpenAIProvider } from './OpenAI'; +import { useWenxinProvider } from './Wenxin'; export const useProviderList = (): ProviderItem[] => { const AzureProvider = useAzureProvider(); @@ -40,6 +41,7 @@ export const useProviderList = (): ProviderItem[] => { const OpenAIProvider = useOpenAIProvider(); const BedrockProvider = useBedrockProvider(); const GithubProvider = useGithubProvider(); + const WenxinProvider = useWenxinProvider(); return useMemo( () => [ @@ -61,6 +63,7 @@ export const useProviderList = (): ProviderItem[] => { Ai21ProviderCard, UpstageProviderCard, QwenProviderCard, + WenxinProvider, HunyuanProviderCard, SparkProviderCard, ZhiPuProviderCard, @@ -73,6 +76,6 @@ export const useProviderList = (): ProviderItem[] => { TaichuProviderCard, SiliconCloudProviderCard, ], - [AzureProvider, OllamaProvider, OpenAIProvider, BedrockProvider, GithubProvider], + [AzureProvider, OllamaProvider, OpenAIProvider, BedrockProvider, GithubProvider,WenxinProvider], ); }; diff --git a/src/app/api/chat/agentRuntime.test.ts b/src/app/api/chat/agentRuntime.test.ts index eea232547404..1d1a1b1064e4 100644 --- a/src/app/api/chat/agentRuntime.test.ts +++ b/src/app/api/chat/agentRuntime.test.ts @@ -25,6 +25,7 @@ import { } from '@/libs/agent-runtime'; import { AgentRuntime } from '@/libs/agent-runtime'; import { LobeStepfunAI } from '@/libs/agent-runtime/stepfun'; +import LobeWenxinAI from '@/libs/agent-runtime/wenxin'; import { initAgentRuntimeWithUserPayload } from './agentRuntime'; @@ -54,6 +55,9 @@ vi.mock('@/config/llm', () => ({ TOGETHERAI_API_KEY: 'test-togetherai-key', QWEN_API_KEY: 'test-qwen-key', STEPFUN_API_KEY: 'test-stepfun-key', + + WENXIN_ACCESS_KEY: 'test-wenxin-access-key', + WENXIN_SECRET_KEY: 'test-wenxin-secret-key', })), })); @@ -202,6 +206,16 @@ describe('initAgentRuntimeWithUserPayload method', () => { expect(runtime['_runtime']).toBeInstanceOf(LobeStepfunAI); }); + it.skip('Wenxin AI provider: with apikey', async () => { + const jwtPayload: JWTPayload = { + wenxinAccessKey: 'user-wenxin-accessKey', + wenxinSecretKey: 'wenxin-secret-key', + }; + const runtime = await initAgentRuntimeWithUserPayload(ModelProvider.Wenxin, jwtPayload); + expect(runtime).toBeInstanceOf(AgentRuntime); + expect(runtime['_runtime']).toBeInstanceOf(LobeWenxinAI); + }); + it('Unknown Provider: with apikey and endpoint, should initialize to OpenAi', async () => { const jwtPayload: JWTPayload = { apiKey: 'user-unknown-key', @@ -339,6 +353,13 @@ describe('initAgentRuntimeWithUserPayload method', () => { expect(runtime['_runtime']).toBeInstanceOf(LobeTogetherAI); }); + it.skip('Wenxin AI provider: without apikey', async () => { + const jwtPayload = {}; + const runtime = await initAgentRuntimeWithUserPayload(ModelProvider.Wenxin, jwtPayload); + expect(runtime).toBeInstanceOf(AgentRuntime); + expect(runtime['_runtime']).toBeInstanceOf(LobeWenxinAI); + }); + it('Unknown Provider', async () => { const jwtPayload = {}; const runtime = await initAgentRuntimeWithUserPayload('unknown', jwtPayload); diff --git a/src/app/api/chat/wenxin/route.test.ts b/src/app/api/chat/wenxin/route.test.ts new file mode 100644 index 000000000000..ba1940c99075 --- /dev/null +++ b/src/app/api/chat/wenxin/route.test.ts @@ -0,0 +1,27 @@ +// @vitest-environment edge-runtime +import { describe, expect, it, vi } from 'vitest'; + +import { POST as UniverseRoute } from '../[provider]/route'; +import { POST, runtime } from './route'; + +// 模拟 '../[provider]/route' +vi.mock('../[provider]/route', () => ({ + POST: vi.fn().mockResolvedValue('mocked response'), +})); + +describe('Configuration tests', () => { + it('should have runtime set to "edge"', () => { + expect(runtime).toBe('nodejs'); + }); +}); + +describe('Wenxin POST function tests', () => { + it('should call UniverseRoute with correct parameters', async () => { + const mockRequest = new Request('https://example.com', { method: 'POST' }); + await POST(mockRequest); + expect(UniverseRoute).toHaveBeenCalledWith(mockRequest, { + createRuntime: expect.anything(), + params: { provider: 'wenxin' }, + }); + }); +}); diff --git a/src/app/api/chat/wenxin/route.ts b/src/app/api/chat/wenxin/route.ts new file mode 100644 index 000000000000..a459fd5fe04b --- /dev/null +++ b/src/app/api/chat/wenxin/route.ts @@ -0,0 +1,30 @@ +import { getLLMConfig } from '@/config/llm'; +import { AgentRuntime } from '@/libs/agent-runtime'; +import LobeWenxinAI from '@/libs/agent-runtime/wenxin'; + +import { POST as UniverseRoute } from '../[provider]/route'; + +export const runtime = 'nodejs'; + +export const maxDuration = 30; + +export const POST = async (req: Request) => + UniverseRoute(req, { + createRuntime: (payload) => { + const { WENXIN_ACCESS_KEY, WENXIN_SECRET_KEY } = getLLMConfig(); + let accessKey: string | undefined = WENXIN_ACCESS_KEY; + let secretKey: string | undefined = WENXIN_SECRET_KEY; + + // if the payload has the api key, use user + if (payload.apiKey) { + accessKey = payload?.wenxinAccessKey; + secretKey = payload?.wenxinSecretKey; + } + + const params = { accessKey, secretKey }; + const instance = new LobeWenxinAI(params); + + return new AgentRuntime(instance); + }, + params: { provider: 'wenxin' }, + }); diff --git a/src/app/api/errorResponse.ts b/src/app/api/errorResponse.ts index cd6c0f89d172..bc22d1cb4191 100644 --- a/src/app/api/errorResponse.ts +++ b/src/app/api/errorResponse.ts @@ -16,6 +16,10 @@ const getStatus = (errorType: ILobeAgentRuntimeErrorType | ErrorType) => { return 403; } + case AgentRuntimeErrorType.QuotaLimitReached: { + return 429; + } + // define the 471~480 as provider error case AgentRuntimeErrorType.AgentRuntimeError: { return 470; diff --git a/src/config/llm.ts b/src/config/llm.ts index f967c108c156..b07ed60f6082 100644 --- a/src/config/llm.ts +++ b/src/config/llm.ts @@ -80,6 +80,10 @@ export const getLLMConfig = () => { AWS_SECRET_ACCESS_KEY: z.string().optional(), AWS_SESSION_TOKEN: z.string().optional(), + ENABLED_WENXIN: z.boolean(), + WENXIN_ACCESS_KEY: z.string().optional(), + WENXIN_SECRET_KEY: z.string().optional(), + ENABLED_OLLAMA: z.boolean(), OLLAMA_PROXY_URL: z.string().optional(), OLLAMA_MODEL_LIST: z.string().optional(), @@ -198,6 +202,10 @@ export const getLLMConfig = () => { AWS_SECRET_ACCESS_KEY: process.env.AWS_SECRET_ACCESS_KEY, AWS_SESSION_TOKEN: process.env.AWS_SESSION_TOKEN, + ENABLED_WENXIN: !!process.env.WENXIN_ACCESS_KEY && !!process.env.WENXIN_SECRET_KEY, + WENXIN_ACCESS_KEY: process.env.WENXIN_ACCESS_KEY, + WENXIN_SECRET_KEY: process.env.WENXIN_SECRET_KEY, + ENABLED_OLLAMA: process.env.ENABLED_OLLAMA !== '0', OLLAMA_PROXY_URL: process.env.OLLAMA_PROXY_URL || '', OLLAMA_MODEL_LIST: process.env.OLLAMA_MODEL_LIST, diff --git a/src/config/modelProviders/index.ts b/src/config/modelProviders/index.ts index 2dbd8c842b75..3cca8d0f813a 100644 --- a/src/config/modelProviders/index.ts +++ b/src/config/modelProviders/index.ts @@ -27,6 +27,7 @@ import StepfunProvider from './stepfun'; import TaichuProvider from './taichu'; import TogetherAIProvider from './togetherai'; import UpstageProvider from './upstage'; +import WenxinProvider from './wenxin'; import ZeroOneProvider from './zeroone'; import ZhiPuProvider from './zhipu'; @@ -59,6 +60,7 @@ export const LOBE_DEFAULT_MODEL_LIST: ChatModelCard[] = [ SparkProvider.chatModels, Ai21Provider.chatModels, HunyuanProvider.chatModels, + WenxinProvider.chatModels, ].flat(); export const DEFAULT_MODEL_PROVIDER_LIST = [ @@ -80,6 +82,7 @@ export const DEFAULT_MODEL_PROVIDER_LIST = [ Ai21Provider, UpstageProvider, QwenProvider, + WenxinProvider, HunyuanProvider, SparkProvider, ZhiPuProvider, @@ -129,5 +132,6 @@ export { default as StepfunProviderCard } from './stepfun'; export { default as TaichuProviderCard } from './taichu'; export { default as TogetherAIProviderCard } from './togetherai'; export { default as UpstageProviderCard } from './upstage'; +export { default as WenxinProviderCard } from './wenxin'; export { default as ZeroOneProviderCard } from './zeroone'; export { default as ZhiPuProviderCard } from './zhipu'; diff --git a/src/config/modelProviders/wenxin.ts b/src/config/modelProviders/wenxin.ts new file mode 100644 index 000000000000..8e977c94cc27 --- /dev/null +++ b/src/config/modelProviders/wenxin.ts @@ -0,0 +1,159 @@ +import { ModelProviderCard } from '@/types/llm'; + +// ref https://cloud.baidu.com/doc/WENXINWORKSHOP/s/Nlks5zkzu +const BaiduWenxin: ModelProviderCard = { + chatModels: [ + { + description: + '百度自研的旗舰级大规模⼤语⾔模型,覆盖海量中英文语料,具有强大的通用能力,可满足绝大部分对话问答、创作生成、插件应用场景要求;支持自动对接百度搜索插件,保障问答信息时效。', + displayName: 'ERNIE 3.5 8K', + enabled: true, + id: 'ERNIE-3.5-8K', + pricing: { + currency: 'CNY', + input: 0.8, + output: 2, + }, + tokens: 8192, + }, + { + description: + '百度自研的旗舰级大规模⼤语⾔模型,覆盖海量中英文语料,具有强大的通用能力,可满足绝大部分对话问答、创作生成、插件应用场景要求;支持自动对接百度搜索插件,保障问答信息时效。', + displayName: 'ERNIE 3.5 8K Preview', + id: 'ERNIE-3.5-8K-Preview', + pricing: { + currency: 'CNY', + input: 0.8, + output: 2, + }, + tokens: 8192, + }, + { + description: + '百度自研的旗舰级大规模⼤语⾔模型,覆盖海量中英文语料,具有强大的通用能力,可满足绝大部分对话问答、创作生成、插件应用场景要求;支持自动对接百度搜索插件,保障问答信息时效。', + displayName: 'ERNIE 3.5 128K', + enabled: true, + id: 'ERNIE-3.5-128K', + pricing: { + currency: 'CNY', + input: 0.8, + output: 2, + }, + tokens: 128_000, + }, + { + description: + '百度自研的旗舰级超大规模⼤语⾔模型,相较ERNIE 3.5实现了模型能力全面升级,广泛适用于各领域复杂任务场景;支持自动对接百度搜索插件,保障问答信息时效。', + displayName: 'ERNIE 4.0 8K', + enabled: true, + id: 'ERNIE-4.0-8K-Latest', + pricing: { + currency: 'CNY', + input: 30, + output: 90, + }, + tokens: 8192, + }, + { + description: + '百度自研的旗舰级超大规模⼤语⾔模型,相较ERNIE 3.5实现了模型能力全面升级,广泛适用于各领域复杂任务场景;支持自动对接百度搜索插件,保障问答信息时效。', + displayName: 'ERNIE 4.0 8K Preview', + id: 'ERNIE-4.0-8K-Preview', + pricing: { + currency: 'CNY', + input: 30, + output: 90, + }, + tokens: 8192, + }, + { + description: + '百度自研的旗舰级超大规模⼤语⾔模型,综合效果表现出色,广泛适用于各领域复杂任务场景;支持自动对接百度搜索插件,保障问答信息时效。相较于ERNIE 4.0在性能表现上更优秀', + displayName: 'ERNIE 4.0 Turbo 8K', + enabled: true, + id: 'ERNIE-4.0-Turbo-8K', + pricing: { + currency: 'CNY', + input: 20, + output: 60, + }, + tokens: 8192, + }, + { + description: + '百度自研的旗舰级超大规模⼤语⾔模型,综合效果表现出色,广泛适用于各领域复杂任务场景;支持自动对接百度搜索插件,保障问答信息时效。相较于ERNIE 4.0在性能表现上更优秀', + displayName: 'ERNIE 4.0 Turbo 8K Preview', + id: 'ERNIE-4.0-Turbo-8K-Preview', + pricing: { + currency: 'CNY', + input: 20, + output: 60, + }, + tokens: 8192, + }, + { + description: + '百度自研的轻量级大语言模型,兼顾优异的模型效果与推理性能,效果比ERNIE Lite更优,适合低算力AI加速卡推理使用。', + displayName: 'ERNIE Lite Pro 128K', + enabled: true, + id: 'ERNIE-Lite-Pro-128K', + pricing: { + currency: 'CNY', + input: 0.2, + output: 0.4, + }, + tokens: 128_000, + }, + { + description: + '百度2024年最新发布的自研高性能大语言模型,通用能力优异,效果比ERNIE Speed更优,适合作为基座模型进行精调,更好地处理特定场景问题,同时具备极佳的推理性能。', + displayName: 'ERNIE Speed Pro 128K', + enabled: true, + id: 'ERNIE-Speed-Pro-128K', + pricing: { + currency: 'CNY', + input: 0.3, + output: 0.6, + }, + tokens: 128_000, + }, + { + description: + '百度2024年最新发布的自研高性能大语言模型,通用能力优异,适合作为基座模型进行精调,更好地处理特定场景问题,同时具备极佳的推理性能。', + displayName: 'ERNIE Speed 128K', + id: 'ERNIE-Speed-128K', + pricing: { + currency: 'CNY', + input: 0, + output: 0, + }, + tokens: 128_000, + }, + { + description: + '百度自研的垂直场景大语言模型,适合游戏NPC、客服对话、对话角色扮演等应用场景,人设风格更为鲜明、一致,指令遵循能力更强,推理性能更优。', + displayName: 'ERNIE Character 8K', + id: 'ERNIE-Character-8K', + pricing: { + currency: 'CNY', + input: 4, + output: 8, + }, + tokens: 8192, + }, + ], + checkModel: 'ERNIE-Speed-128K', + description: + '企业级一站式大模型与AI原生应用开发及服务平台,提供最全面易用的生成式人工智能模型开发、应用开发全流程工具链', + disableBrowserRequest: true, + id: 'wenxin', + modelsUrl: 'https://cloud.baidu.com/doc/WENXINWORKSHOP/s/Nlks5zkzu#%E5%AF%B9%E8%AF%9Dchat', + name: 'Wenxin', + smoothing: { + speed: 2, + text: true, + }, + url: 'https://cloud.baidu.com/wenxin.html', +}; + +export default BaiduWenxin; diff --git a/src/const/auth.ts b/src/const/auth.ts index 102d0cee4639..643ee56ceefe 100644 --- a/src/const/auth.ts +++ b/src/const/auth.ts @@ -36,6 +36,10 @@ export interface JWTPayload { awsRegion?: string; awsSecretAccessKey?: string; awsSessionToken?: string; + + wenxinAccessKey?: string; + wenxinSecretKey?: string; + /** * user id * in client db mode it's a uuid diff --git a/src/const/settings/llm.ts b/src/const/settings/llm.ts index 77d4eb61441d..d22d1e55d4b0 100644 --- a/src/const/settings/llm.ts +++ b/src/const/settings/llm.ts @@ -25,6 +25,7 @@ import { TaichuProviderCard, TogetherAIProviderCard, UpstageProviderCard, + WenxinProviderCard, ZeroOneProviderCard, ZhiPuProviderCard, filterEnabledModels, @@ -141,6 +142,10 @@ export const DEFAULT_LLM_CONFIG: UserModelProviderConfig = { enabled: false, enabledModels: filterEnabledModels(UpstageProviderCard), }, + wenxin: { + enabled: false, + enabledModels: filterEnabledModels(WenxinProviderCard), + }, zeroone: { enabled: false, enabledModels: filterEnabledModels(ZeroOneProviderCard), diff --git a/src/features/Conversation/Error/APIKeyForm/Wenxin.tsx b/src/features/Conversation/Error/APIKeyForm/Wenxin.tsx new file mode 100644 index 000000000000..c109cf6afbd2 --- /dev/null +++ b/src/features/Conversation/Error/APIKeyForm/Wenxin.tsx @@ -0,0 +1,49 @@ +import { Wenxin } from '@lobehub/icons'; +import { Input } from 'antd'; +import { memo } from 'react'; +import { useTranslation } from 'react-i18next'; + +import { ModelProvider } from '@/libs/agent-runtime'; +import { useUserStore } from '@/store/user'; +import { keyVaultsConfigSelectors } from '@/store/user/selectors'; + +import { FormAction } from '../style'; + +const WenxinForm = memo(() => { + const { t } = useTranslation('modelProvider'); + + const [accessKey, secretKey, setConfig] = useUserStore((s) => [ + keyVaultsConfigSelectors.wenxinConfig(s).accessKey, + keyVaultsConfigSelectors.wenxinConfig(s).secretKey, + s.updateKeyVaultConfig, + ]); + + return ( + } + description={t('wenxin.unlock.description')} + title={t('wenxin.unlock.title')} + > + { + setConfig(ModelProvider.Wenxin, { accessKey: e.target.value }); + }} + placeholder={'Access Key'} + type={'block'} + value={accessKey} + /> + { + setConfig(ModelProvider.Wenxin, { secretKey: e.target.value }); + }} + placeholder={'Secret Key'} + type={'block'} + value={secretKey} + /> + + ); +}); + +export default WenxinForm; diff --git a/src/features/Conversation/Error/APIKeyForm/index.tsx b/src/features/Conversation/Error/APIKeyForm/index.tsx index 703b079948f3..5ba78f4f0ba3 100644 --- a/src/features/Conversation/Error/APIKeyForm/index.tsx +++ b/src/features/Conversation/Error/APIKeyForm/index.tsx @@ -10,6 +10,7 @@ import { GlobalLLMProviderKey } from '@/types/user/settings'; import BedrockForm from './Bedrock'; import ProviderApiKeyForm from './ProviderApiKeyForm'; +import WenxinForm from './Wenxin'; interface APIKeyFormProps { id: string; @@ -65,6 +66,8 @@ const APIKeyForm = memo(({ id, provider }) => {
{provider === ModelProvider.Bedrock ? ( + ) : provider === ModelProvider.Wenxin ? ( + ) : ( { + it('should transform Wenxin stream to protocol stream', async () => { + vi.spyOn(uuidModule, 'nanoid').mockReturnValueOnce('1'); + + const mockWenxinStream: AsyncIterable = { + // @ts-ignore + async *[Symbol.asyncIterator]() { + for (const item of dataStream) { + yield item; + } + }, + }; + + const stream = WenxinResultToStream(mockWenxinStream); + + const onStartMock = vi.fn(); + const onTextMock = vi.fn(); + const onTokenMock = vi.fn(); + const onCompletionMock = vi.fn(); + + const protocolStream = WenxinStream(stream, { + onStart: onStartMock, + onText: onTextMock, + onToken: onTokenMock, + onCompletion: onCompletionMock, + }); + + const decoder = new TextDecoder(); + const chunks = []; + + // @ts-ignore + for await (const chunk of protocolStream) { + chunks.push(decoder.decode(chunk, { stream: true })); + } + + expect(chunks).toEqual( + [ + 'id: as-vb0m37ti8y', + 'event: text', + `data: "当然可以,"\n`, + 'id: as-vb0m37ti8y', + 'event: text', + `data: "以下是一些建议的自驾游路线,它们涵盖了各种不同的风景和文化体验:\\n\\n1. **西安-敦煌历史文化之旅**:\\n\\n\\n\\t* 路线:西安"\n`, + 'id: as-vb0m37ti8y', + 'event: text', + `data: " - 天水 - 兰州 - 嘉峪关 - 敦煌\\n\\t* 特点:此路线让您领略到中国西北的丰富历史文化。"\n`, + 'id: as-vb0m37ti8y', + 'event: text', + `data: "您可以参观西安的兵马俑、大雁塔,体验兰州的黄河风情,以及在敦煌欣赏壮丽的莫高窟。"\n`, + 'id: as-vb0m37ti8y', + 'event: text', + `data: "\\n2. **海南环岛热带风情游**:\\n\\n\\n\\t* 路线:海口 - 三亚 - 陵水 - 万宁 - 文昌 - 海"\n`, + 'id: as-vb0m37ti8y', + 'event: text', + `data: "口\\n\\t* 特点:海南岛是中国唯一的黎族聚居区,这里有独特的热带风情、美丽的海滩和丰富的水果。"\n`, + ].map((item) => `${item}\n`), + ); + + expect(onStartMock).toHaveBeenCalledTimes(1); + expect(onTextMock).toHaveBeenNthCalledWith(1, '"当然可以,"'); + expect(onTextMock).toHaveBeenNthCalledWith(2, '"以下是一些建议的自驾游路线,它们涵盖了各种不同的风景和文化体验:\\n\\n1. **西安-敦煌历史文化之旅**:\\n\\n\\n\\t* 路线:西安"'); + expect(onTokenMock).toHaveBeenCalledTimes(6); + expect(onCompletionMock).toHaveBeenCalledTimes(1); + }); +}); diff --git a/src/libs/agent-runtime/utils/streams/wenxin.ts b/src/libs/agent-runtime/utils/streams/wenxin.ts new file mode 100644 index 000000000000..23edd48c624b --- /dev/null +++ b/src/libs/agent-runtime/utils/streams/wenxin.ts @@ -0,0 +1,46 @@ +import { readableFromAsyncIterable } from 'ai'; + +import { ChatStreamCallbacks } from '@/libs/agent-runtime'; +import { nanoid } from '@/utils/uuid'; + +import { ChatResp } from '../../wenxin/type'; +import { + StreamProtocolChunk, + StreamStack, + chatStreamable, + createCallbacksTransformer, + createSSEProtocolTransformer, +} from './protocol'; + +const transformERNIEBotStream = (chunk: ChatResp): StreamProtocolChunk => { + const finished = chunk.is_end; + if (finished) { + return { data: chunk.finish_reason || 'stop', id: chunk.id, type: 'stop' }; + } + + if (chunk.result) { + return { data: chunk.result, id: chunk.id, type: 'text' }; + } + + return { + data: chunk, + id: chunk.id, + type: 'data', + }; +}; + +export const WenxinResultToStream = (stream: AsyncIterable) => { + // make the response to the streamable format + return readableFromAsyncIterable(chatStreamable(stream)); +}; + +export const WenxinStream = ( + rawStream: ReadableStream, + callbacks?: ChatStreamCallbacks, +) => { + const streamStack: StreamStack = { id: 'chat_' + nanoid() }; + + return rawStream + .pipeThrough(createSSEProtocolTransformer(transformERNIEBotStream, streamStack)) + .pipeThrough(createCallbacksTransformer(callbacks)); +}; diff --git a/src/libs/agent-runtime/wenxin/index.ts b/src/libs/agent-runtime/wenxin/index.ts new file mode 100644 index 000000000000..f5ae769d5af3 --- /dev/null +++ b/src/libs/agent-runtime/wenxin/index.ts @@ -0,0 +1,106 @@ +import { ChatCompletion } from '@baiducloud/qianfan'; + +// 如果引入了这个类型,那么在跑 type-check 的 tsc 检查中就会抛错,大无语 +// import type QianFanClient from '@baiducloud/qianfan/src/ChatCompletion/index'; +import { safeParseJSON } from '@/utils/safeParseJSON'; + +import { LobeRuntimeAI } from '../BaseAI'; +import { AgentRuntimeErrorType } from '../error'; +import { ChatCompetitionOptions, ChatStreamPayload } from '../types'; +import { AgentRuntimeError } from '../utils/createError'; +import { debugStream } from '../utils/debugStream'; +import { StreamingResponse } from '../utils/response'; +import { WenxinResultToStream, WenxinStream } from '../utils/streams/wenxin'; +import { ChatResp } from './type'; + +interface ChatErrorCode { + error_code: number; + error_msg: string; +} + +export interface LobeWenxinAIParams { + accessKey?: string; + baseURL?: string; + secretKey?: string; +} + +export class LobeWenxinAI implements LobeRuntimeAI { + private client: any; + baseURL?: string; + + constructor({ accessKey, baseURL, secretKey }: LobeWenxinAIParams = {}) { + if (!accessKey || !secretKey) + throw AgentRuntimeError.createError(AgentRuntimeErrorType.InvalidProviderAPIKey); + + this.client = new ChatCompletion({ + QIANFAN_ACCESS_KEY: accessKey, + QIANFAN_SECRET_KEY: secretKey, + }); + this.baseURL = baseURL; + } + + async chat(payload: ChatStreamPayload, options?: ChatCompetitionOptions) { + try { + const result = await this.client.chat( + { messages: payload.messages as any, stream: true, user_id: options?.user }, + payload.model, + ); + + const wenxinStream = WenxinResultToStream(result as AsyncIterable); + + const [prod, useForDebug] = wenxinStream.tee(); + + if (process.env.DEBUG_WENXIN_CHAT_COMPLETION === '1') { + debugStream(useForDebug).catch(); + } + + const stream = WenxinStream(prod, options?.callback); + + // Respond with the stream + return StreamingResponse(stream, { headers: options?.headers }); + } catch (e) { + const err = e as Error; + + const error: ChatErrorCode | undefined = safeParseJSON(err.message); + + if (!error) { + throw AgentRuntimeError.createError(AgentRuntimeErrorType.AgentRuntimeError, { + message: err.message, + name: err.name, + }); + } + + // 文心一言错误码 + // https://cloud.baidu.com/doc/WENXINWORKSHOP/s/tlmyncueh + switch (error.error_code) { + // Invalid API key or access key + case 100: + case 13: + case 14: { + throw AgentRuntimeError.createError(AgentRuntimeErrorType.InvalidProviderAPIKey, error); + } + + // quota limit + case 4: + case 17: + case 18: + case 19: + case 336_501: + case 336_502: + case 336_503: + case 336_504: + case 336_505: + case 336_507: { + throw AgentRuntimeError.createError(AgentRuntimeErrorType.QuotaLimitReached, { + errorCode: error.error_code, + message: `${error.error_msg} | you can visit https://cloud.baidu.com/doc/WENXINWORKSHOP/s/tlmyncueh for more information about the error code`, + }); + } + } + + throw AgentRuntimeError.createError(AgentRuntimeErrorType.ProviderBizError, error); + } + } +} + +export default LobeWenxinAI; diff --git a/src/libs/agent-runtime/wenxin/type.ts b/src/libs/agent-runtime/wenxin/type.ts new file mode 100644 index 000000000000..63bafbba7e33 --- /dev/null +++ b/src/libs/agent-runtime/wenxin/type.ts @@ -0,0 +1,84 @@ +/** + * token 用量基类 + */ +export interface TokenUsage { + /** + * 回答tokens数 + */ + completion_tokens?: number; + /** + * 问题tokens数 + */ + prompt_tokens: number; + /** + * tokens总数 + */ + total_tokens: number; +} + +/** + * 响应基类 + */ +export interface RespBase { + /** + * 时间戳 + */ + created: number; + /** + * 本轮对话的id + */ + id: string; + /** + * 表示当前子句是否是最后一句。只有在流式接口模式下会返回该字段 + */ + is_end?: boolean; + /** + * 1:表示输入内容无安全风险 + * 0:表示输入内容有安全风险 + */ + is_safe?: number; + /** + * 回包类型。 + * + * chat.completion:多轮对话返回 + */ + object: string; + /** + * 对话返回结果 + */ + result: string; + /** + * 表示当前子句的序号。只有在流式接口模式下会返回该字段 + */ + sentence_id?: number; + /** + * token统计信息,token数 = 汉字数+单词数*1.3 (仅为估算逻辑) + */ + usage: TokenUsage; +} + +export interface ChatResp extends RespBase { + /** + * 当 need_clear_history 为 true 时,此字段会告知第几轮对话有敏感信息,如果是当前问题,ban_round=-1 + */ + ban_round: number; + /** + * 输出内容标识,说明: + * · normal:输出内容完全由大模型生成,未触发截断、替换 + * · stop:输出结果命中入参stop中指定的字段后被截断 + * · length:达到了最大的token数,根据EB返回结果is_truncated来截断 + * · content_filter:输出内容被截断、兜底、替换为**等 + */ + finish_reason: string; + /** + * 当前生成的结果是否被截断 + */ + is_truncated?: boolean; + /** + * 表示用户输入是否存在安全,是否关闭当前会话,清理历史会话信息 + * + * true:是,表示用户输入存在安全风险,建议关闭当前会话,清理历史会话信息 + * false:否,表示用户输入无安全风险 + */ + need_clear_history: boolean; +} diff --git a/src/locales/default/error.ts b/src/locales/default/error.ts index 78b5eae59380..217604583f89 100644 --- a/src/locales/default/error.ts +++ b/src/locales/default/error.ts @@ -79,6 +79,8 @@ export default { InvalidClerkUser: '很抱歉,你当前尚未登录,请先登录或注册账号后继续操作', LocationNotSupportError: '很抱歉,你的所在地区不支持此模型服务,可能是由于区域限制或服务未开通。请确认当前地区是否支持使用此服务,或尝试使用切换到其他地区后重试。', + QuotaLimitReached: + '很抱歉,当前 Token 用量或请求次数已达该秘钥的配额(quota)上限,请增加该秘钥的配额或稍后再试', InvalidProviderAPIKey: '{{provider}} API Key 不正确或为空,请检查 {{provider}} API Key 后重试', ProviderBizError: '请求 {{provider}} 服务出错,请根据以下信息排查或重试', diff --git a/src/locales/default/modelProvider.ts b/src/locales/default/modelProvider.ts index 2bb3c7ee5c66..964413157fbb 100644 --- a/src/locales/default/modelProvider.ts +++ b/src/locales/default/modelProvider.ts @@ -115,6 +115,26 @@ export default { title: '下载指定的 Ollama 模型', }, }, + wenxin: { + accessKey: { + desc: '填入百度千帆平台的 Access Key', + placeholder: 'Qianfan Access Key', + title: 'Access Key', + }, + checker: { + desc: '测试 AccessKey / SecretAccess 是否填写正确', + }, + secretKey: { + desc: '填入百度千帆平台 Secret Key', + placeholder: 'Qianfan Secret Key', + title: 'Secret Key', + }, + unlock: { + customRegion: '自定义服务区域', + description: '输入你的 AccessKey / SecretKey 即可开始会话。应用不会记录你的鉴权配置', + title: '使用自定义文心一言鉴权信息', + }, + }, zeroone: { title: '01.AI 零一万物', }, diff --git a/src/server/globalConfig/index.ts b/src/server/globalConfig/index.ts index c53f7be3ce1b..f26ddd83ae69 100644 --- a/src/server/globalConfig/index.ts +++ b/src/server/globalConfig/index.ts @@ -52,7 +52,7 @@ export const getServerGlobalConfig = () => { ENABLED_HUNYUAN, HUNYUAN_MODEL_LIST, - + ENABLED_DEEPSEEK, ENABLED_PERPLEXITY, ENABLED_ANTHROPIC, @@ -96,6 +96,8 @@ export const getServerGlobalConfig = () => { ENABLED_FIREWORKSAI, FIREWORKSAI_MODEL_LIST, + + ENABLED_WENXIN, } = getLLMConfig(); const config: GlobalServerConfig = { @@ -239,6 +241,7 @@ export const getServerGlobalConfig = () => { }), }, upstage: { enabled: ENABLED_UPSTAGE }, + wenxin: { enabled: ENABLED_WENXIN }, zeroone: { enabled: ENABLED_ZEROONE, enabledModels: extractEnabledModels(ZEROONE_MODEL_LIST), diff --git a/src/services/_auth.ts b/src/services/_auth.ts index 3eacfa4603f0..7ecfa4f64c13 100644 --- a/src/services/_auth.ts +++ b/src/services/_auth.ts @@ -25,6 +25,20 @@ export const getProviderAuthPayload = (provider: string) => { }; } + case ModelProvider.Wenxin: { + const { secretKey, accessKey } = keyVaultsConfigSelectors.wenxinConfig( + useUserStore.getState(), + ); + + const apiKey = (accessKey || '') + (secretKey || ''); + + return { + apiKey, + wenxinAccessKey: accessKey, + wenxinSecretKey: secretKey, + }; + } + case ModelProvider.Azure: { const azure = keyVaultsConfigSelectors.azureConfig(useUserStore.getState()); diff --git a/src/store/user/slices/modelList/selectors/keyVaults.ts b/src/store/user/slices/modelList/selectors/keyVaults.ts index 0a9bbb265b65..8a038f8d4919 100644 --- a/src/store/user/slices/modelList/selectors/keyVaults.ts +++ b/src/store/user/slices/modelList/selectors/keyVaults.ts @@ -14,6 +14,7 @@ export const keyVaultsSettings = (s: UserStore): UserKeyVaults => const openAIConfig = (s: UserStore) => keyVaultsSettings(s).openai || {}; const bedrockConfig = (s: UserStore) => keyVaultsSettings(s).bedrock || {}; +const wenxinConfig = (s: UserStore) => keyVaultsSettings(s).wenxin || {}; const ollamaConfig = (s: UserStore) => keyVaultsSettings(s).ollama || {}; const azureConfig = (s: UserStore) => keyVaultsSettings(s).azure || {}; const getVaultByProvider = (provider: GlobalLLMProviderKey) => (s: UserStore) => @@ -42,4 +43,5 @@ export const keyVaultsConfigSelectors = { ollamaConfig, openAIConfig, password, + wenxinConfig, }; diff --git a/src/types/user/settings/keyVaults.ts b/src/types/user/settings/keyVaults.ts index 3a0c6c4f0e4b..1134a768996a 100644 --- a/src/types/user/settings/keyVaults.ts +++ b/src/types/user/settings/keyVaults.ts @@ -16,6 +16,11 @@ export interface AWSBedrockKeyVault { sessionToken?: string; } +export interface WenxinKeyVault { + accessKey?: string; + secretKey?: string; +} + export interface UserKeyVaults { ai21?: OpenAICompatibleKeyVault; ai360?: OpenAICompatibleKeyVault; @@ -46,6 +51,7 @@ export interface UserKeyVaults { taichu?: OpenAICompatibleKeyVault; togetherai?: OpenAICompatibleKeyVault; upstage?: OpenAICompatibleKeyVault; + wenxin?: WenxinKeyVault; zeroone?: OpenAICompatibleKeyVault; zhipu?: OpenAICompatibleKeyVault; }