From 3f8d3db52f6cfdd3b77a1085b9b03a1235499dcc Mon Sep 17 00:00:00 2001 From: Arvin Xu Date: Wed, 20 Nov 2024 23:25:37 +0800 Subject: [PATCH] =?UTF-8?q?=E2=99=BB=EF=B8=8F=20refactor:=20refactor=20the?= =?UTF-8?q?=20default=20locale=20(#4729)?= MIME-Version: 1.0 Content-Type: text/plain; charset=UTF-8 Content-Transfer-Encoding: 8bit * ♻️ refactor: refactor the default locale * 🌐 chore: update locale --- locales/ar/models.json | 12 ++++++++++++ locales/ar/providers.json | 3 +++ locales/bg-BG/models.json | 12 ++++++++++++ locales/bg-BG/providers.json | 3 +++ locales/de-DE/models.json | 12 ++++++++++++ locales/de-DE/providers.json | 3 +++ locales/en-US/models.json | 12 ++++++++++++ locales/en-US/providers.json | 3 +++ locales/es-ES/models.json | 12 ++++++++++++ locales/es-ES/providers.json | 3 +++ locales/fa-IR/models.json | 12 ++++++++++++ locales/fa-IR/providers.json | 3 +++ locales/fr-FR/models.json | 12 ++++++++++++ locales/fr-FR/providers.json | 3 +++ locales/it-IT/models.json | 12 ++++++++++++ locales/it-IT/providers.json | 3 +++ locales/ja-JP/models.json | 12 ++++++++++++ locales/ja-JP/providers.json | 3 +++ locales/ko-KR/models.json | 12 ++++++++++++ locales/ko-KR/providers.json | 3 +++ locales/nl-NL/models.json | 12 ++++++++++++ locales/nl-NL/providers.json | 3 +++ locales/pl-PL/models.json | 12 ++++++++++++ locales/pl-PL/providers.json | 3 +++ locales/pt-BR/models.json | 12 ++++++++++++ locales/pt-BR/providers.json | 3 +++ locales/ru-RU/models.json | 12 ++++++++++++ locales/ru-RU/providers.json | 3 +++ locales/tr-TR/models.json | 12 ++++++++++++ locales/tr-TR/providers.json | 3 +++ locales/vi-VN/models.json | 12 ++++++++++++ locales/vi-VN/providers.json | 3 +++ locales/zh-CN/models.json | 12 ++++++++++++ locales/zh-CN/providers.json | 3 +++ locales/zh-TW/models.json | 12 ++++++++++++ locales/zh-TW/providers.json | 3 +++ src/app/metadata.ts | 3 ++- src/layout/GlobalProvider/index.tsx | 4 ++-- src/locales/resources.ts | 7 +++++-- src/server/ld.ts | 4 ++-- 40 files changed, 281 insertions(+), 7 deletions(-) diff --git a/locales/ar/models.json b/locales/ar/models.json index f87f7493bd4f..70d45dd20bf9 100644 --- a/locales/ar/models.json +++ b/locales/ar/models.json @@ -610,6 +610,9 @@ "grok-beta": { "description": "يمتلك أداءً يعادل Grok 2، ولكنه يتمتع بكفاءة وسرعة ووظائف أعلى." }, + "grok-vision-beta": { + "description": "أحدث نموذج لفهم الصور، يمكنه معالجة مجموعة متنوعة من المعلومات البصرية، بما في ذلك الوثائق، الرسوم البيانية، لقطات الشاشة، والصور." + }, "gryphe/mythomax-l2-13b": { "description": "MythoMax l2 13B هو نموذج لغوي يجمع بين الإبداع والذكاء من خلال دمج عدة نماذج رائدة." }, @@ -646,6 +649,12 @@ "internlm/internlm2_5-7b-chat": { "description": "InternLM2.5 يوفر حلول حوار ذكية في عدة سيناريوهات." }, + "internlm2-pro-chat": { + "description": "نموذج النسخة القديمة الذي لا زلنا نحافظ عليه، يتوفر بخيارات متعددة من عدد المعلمات 7 مليار و 20 مليار." + }, + "internlm2.5-latest": { + "description": "سلسلة نماذجنا الأحدث، تتمتع بأداء استدلال ممتاز، تدعم طول سياق يصل إلى 1 مليون، بالإضافة إلى قدرة أقوى على اتباع التعليمات واستدعاء الأدوات." + }, "jamba-1.5-large": {}, "jamba-1.5-mini": {}, "lite": { @@ -969,6 +978,9 @@ "pixtral-12b-2409": { "description": "نموذج Pixtral يظهر قدرات قوية في فهم الرسوم البيانية والصور، والإجابة على الأسئلة المتعلقة بالمستندات، والاستدلال متعدد الوسائط، واتباع التعليمات، مع القدرة على إدخال الصور بدقة طبيعية ونسبة عرض إلى ارتفاع، بالإضافة إلى معالجة عدد غير محدود من الصور في نافذة سياق طويلة تصل إلى 128K توكن." }, + "pixtral-large-latest": { + "description": "بيكسترا لارج هو نموذج متعدد الوسائط مفتوح المصدر يحتوي على 124 مليار معلمة، مبني على نموذج ميسترال لارج 2. هذا هو النموذج الثاني في عائلتنا متعددة الوسائط، ويظهر مستوى متقدم من القدرة على فهم الصور." + }, "pro-128k": { "description": "سبارك برو 128K مزود بقدرة معالجة سياق كبيرة جدًا، قادر على معالجة ما يصل إلى 128K من معلومات السياق، مما يجعله مناسبًا بشكل خاص للتحليل الشامل ومعالجة الروابط المنطقية طويلة الأمد في المحتوى الطويل، ويمكنه تقديم منطق سلس ومتسق ودعم متنوع للاقتباسات في الاتصالات النصية المعقدة." }, diff --git a/locales/ar/providers.json b/locales/ar/providers.json index 73108c2e911d..4df504e9e9ee 100644 --- a/locales/ar/providers.json +++ b/locales/ar/providers.json @@ -37,6 +37,9 @@ "hunyuan": { "description": "نموذج لغة متقدم تم تطويره بواسطة Tencent، يتمتع بقدرة قوية على الإبداع باللغة الصينية، وقدرة على الاستدلال المنطقي في سياقات معقدة، بالإضافة إلى قدرة موثوقة على تنفيذ المهام." }, + "internlm": { + "description": "منظمة مفتوحة المصدر مكرسة لأبحاث وتطوير أدوات النماذج الكبيرة. توفر منصة مفتوحة المصدر فعالة وسهلة الاستخدام لجميع مطوري الذكاء الاصطناعي، مما يجعل أحدث تقنيات النماذج الكبيرة والخوارزميات في متناول اليد." + }, "minimax": { "description": "MiniMax هي شركة تكنولوجيا الذكاء الاصطناعي العامة التي تأسست في عام 2021، تكرس جهودها للتعاون مع المستخدمين في إنشاء الذكاء. طورت MiniMax نماذج كبيرة عامة من أوضاع مختلفة، بما في ذلك نموذج نصي MoE الذي يحتوي على تريليونات من المعلمات، ونموذج صوتي، ونموذج صور. وقد أطلقت تطبيقات مثل Conch AI." }, diff --git a/locales/bg-BG/models.json b/locales/bg-BG/models.json index fbab3f35ee78..de80d5fc30c3 100644 --- a/locales/bg-BG/models.json +++ b/locales/bg-BG/models.json @@ -610,6 +610,9 @@ "grok-beta": { "description": "С производителност, сравнима с Grok 2, но с по-висока ефективност, скорост и функции." }, + "grok-vision-beta": { + "description": "Най-новият модел за разбиране на изображения, способен да обработва разнообразна визуална информация, включително документи, графики, екранни снимки и снимки." + }, "gryphe/mythomax-l2-13b": { "description": "MythoMax l2 13B е езиков модел, който комбинира креативност и интелигентност, обединявайки множество водещи модели." }, @@ -646,6 +649,12 @@ "internlm/internlm2_5-7b-chat": { "description": "InternLM2.5 предлага интелигентни решения за диалог в множество сценарии." }, + "internlm2-pro-chat": { + "description": "По-стара версия на модела, която все още поддържаме, с налични параметри от 7B и 20B." + }, + "internlm2.5-latest": { + "description": "Нашата най-нова серия модели с изключителни способности за извеждане, поддържаща контекстна дължина от 1M и по-силни способности за следване на инструкции и извикване на инструменти." + }, "jamba-1.5-large": {}, "jamba-1.5-mini": {}, "lite": { @@ -969,6 +978,9 @@ "pixtral-12b-2409": { "description": "Моделът Pixtral демонстрира силни способности в задачи като разбиране на графики и изображения, отговори на документи, многомодално разсъждение и следване на инструкции, способен да приема изображения с естествено разрешение и съотношение на страните, както и да обработва произволен брой изображения в контекстен прозорец с дължина до 128K токена." }, + "pixtral-large-latest": { + "description": "Pixtral Large е отворен многомодален модел с 1240 милиарда параметри, базиран на Mistral Large 2. Това е вторият модел в нашето многомодално семейство, който демонстрира авангардни способности за разбиране на изображения." + }, "pro-128k": { "description": "Spark Pro 128K е конфигуриран с изключителна способност за обработка на контекст, способен да обработва до 128K контекстна информация, особено подходящ за дълги текстове, изискващи цялостен анализ и дългосрочна логическа свързаност, предоставяйки гладка и последователна логика и разнообразна поддръжка на цитати в сложни текстови комуникации." }, diff --git a/locales/bg-BG/providers.json b/locales/bg-BG/providers.json index 2f4232bd30c4..30759a9154e0 100644 --- a/locales/bg-BG/providers.json +++ b/locales/bg-BG/providers.json @@ -37,6 +37,9 @@ "hunyuan": { "description": "Модел на голям език, разработен от Tencent, който притежава мощни способности за създаване на текст на китайски, логическо разсъждение в сложни контексти и надеждни способности за изпълнение на задачи." }, + "internlm": { + "description": "Отворена организация, посветена на изследването и разработването на инструменти за големи модели. Предоставя на всички AI разработчици ефективна и лесна за използване отворена платформа, която прави най-съвременните технологии и алгоритми за големи модели достъпни." + }, "minimax": { "description": "MiniMax е компания за универсален изкуствен интелект, основана през 2021 г., която се стреми да създаде интелигентност заедно с потребителите. MiniMax е разработила различни универсални големи модели, включително текстови модели с трилйон параметри, модели за глас и модели за изображения. Също така е пуснала приложения като Conch AI." }, diff --git a/locales/de-DE/models.json b/locales/de-DE/models.json index f77a788f4d81..d6fe33c6eb5f 100644 --- a/locales/de-DE/models.json +++ b/locales/de-DE/models.json @@ -610,6 +610,9 @@ "grok-beta": { "description": "Bietet eine Leistung, die mit Grok 2 vergleichbar ist, jedoch mit höherer Effizienz, Geschwindigkeit und Funktionalität." }, + "grok-vision-beta": { + "description": "Das neueste Modell zur Bildverständnis, das eine Vielzahl von visuellen Informationen verarbeiten kann, einschließlich Dokumenten, Diagrammen, Screenshots und Fotos." + }, "gryphe/mythomax-l2-13b": { "description": "MythoMax l2 13B ist ein Sprachmodell, das Kreativität und Intelligenz kombiniert und mehrere führende Modelle integriert." }, @@ -646,6 +649,12 @@ "internlm/internlm2_5-7b-chat": { "description": "InternLM2.5 bietet intelligente Dialoglösungen in mehreren Szenarien." }, + "internlm2-pro-chat": { + "description": "Die ältere Modellversion, die wir weiterhin pflegen, bietet eine Auswahl an Modellparametern von 7B und 20B." + }, + "internlm2.5-latest": { + "description": "Unsere neueste Modellreihe mit herausragender Schlussfolgerungsleistung, die eine Kontextlänge von 1M unterstützt und über verbesserte Anweisungsbefolgung und Toolaufrufmöglichkeiten verfügt." + }, "jamba-1.5-large": {}, "jamba-1.5-mini": {}, "lite": { @@ -969,6 +978,9 @@ "pixtral-12b-2409": { "description": "Das Pixtral-Modell zeigt starke Fähigkeiten in Aufgaben wie Diagramm- und Bildverständnis, Dokumentenfragen, multimodale Schlussfolgerungen und Befolgung von Anweisungen. Es kann Bilder in natürlicher Auflösung und Seitenverhältnis aufnehmen und in einem langen Kontextfenster von bis zu 128K Tokens beliebig viele Bilder verarbeiten." }, + "pixtral-large-latest": { + "description": "Pixtral Large ist ein Open-Source-Multimodalmodell mit 124 Milliarden Parametern, das auf Mistral Large 2 basiert. Dies ist unser zweites Modell in der multimodalen Familie und zeigt fortschrittliche Fähigkeiten im Bereich der Bildverständnis." + }, "pro-128k": { "description": "Spark Pro 128K verfügt über eine außergewöhnliche Kontextverarbeitungsfähigkeit und kann bis zu 128K Kontextinformationen verarbeiten, was es besonders geeignet für die Analyse langer Texte und die Verarbeitung langfristiger logischer Zusammenhänge macht. Es bietet in komplexen Textkommunikationen flüssige und konsistente Logik sowie vielfältige Unterstützung für Zitate." }, diff --git a/locales/de-DE/providers.json b/locales/de-DE/providers.json index 434a7411cd35..0c32117fb2c3 100644 --- a/locales/de-DE/providers.json +++ b/locales/de-DE/providers.json @@ -37,6 +37,9 @@ "hunyuan": { "description": "Ein von Tencent entwickeltes großes Sprachmodell, das über starke Fähigkeiten zur Erstellung von Inhalten in chinesischer Sprache, logisches Denkvermögen in komplexen Kontexten und zuverlässige Fähigkeiten zur Aufgabenerfüllung verfügt." }, + "internlm": { + "description": "Eine Open-Source-Organisation, die sich der Forschung und Entwicklung von großen Modellen und Werkzeugketten widmet. Sie bietet allen KI-Entwicklern eine effiziente und benutzerfreundliche Open-Source-Plattform, die den Zugang zu den neuesten Technologien und Algorithmen für große Modelle ermöglicht." + }, "minimax": { "description": "MiniMax ist ein im Jahr 2021 gegründetes Unternehmen für allgemeine künstliche Intelligenz, das sich der gemeinsamen Schaffung von Intelligenz mit den Nutzern widmet. MiniMax hat verschiedene multimodale allgemeine große Modelle entwickelt, darunter ein Textmodell mit Billionen von Parametern, ein Sprachmodell und ein Bildmodell. Außerdem wurden Anwendungen wie Conch AI eingeführt." }, diff --git a/locales/en-US/models.json b/locales/en-US/models.json index 7636ebff03db..9c7c2de2ea12 100644 --- a/locales/en-US/models.json +++ b/locales/en-US/models.json @@ -610,6 +610,9 @@ "grok-beta": { "description": "Offers performance comparable to Grok 2 but with higher efficiency, speed, and functionality." }, + "grok-vision-beta": { + "description": "The latest image understanding model that can handle a wide range of visual information, including documents, charts, screenshots, and photographs." + }, "gryphe/mythomax-l2-13b": { "description": "MythoMax l2 13B is a language model that combines creativity and intelligence by merging multiple top models." }, @@ -646,6 +649,12 @@ "internlm/internlm2_5-7b-chat": { "description": "InternLM2.5 offers intelligent dialogue solutions across multiple scenarios." }, + "internlm2-pro-chat": { + "description": "An older version of the model that we still maintain, available in various parameter sizes of 7B and 20B." + }, + "internlm2.5-latest": { + "description": "Our latest model series, featuring exceptional reasoning performance, supporting a context length of 1M, and enhanced instruction following and tool invocation capabilities." + }, "jamba-1.5-large": {}, "jamba-1.5-mini": {}, "lite": { @@ -969,6 +978,9 @@ "pixtral-12b-2409": { "description": "The Pixtral model demonstrates strong capabilities in tasks such as chart and image understanding, document question answering, multimodal reasoning, and instruction following. It can ingest images at natural resolutions and aspect ratios and handle an arbitrary number of images within a long context window of up to 128K tokens." }, + "pixtral-large-latest": { + "description": "Pixtral Large is an open-source multimodal model with 124 billion parameters, built on Mistral Large 2. This is the second model in our multimodal family, showcasing cutting-edge image understanding capabilities." + }, "pro-128k": { "description": "Spark Pro 128K is equipped with an extra-large context processing capability, able to handle up to 128K of contextual information, making it particularly suitable for long-form content that requires comprehensive analysis and long-term logical connections, providing smooth and consistent logic and diverse citation support in complex text communication." }, diff --git a/locales/en-US/providers.json b/locales/en-US/providers.json index 7f27eb56cbf5..c31daee63896 100644 --- a/locales/en-US/providers.json +++ b/locales/en-US/providers.json @@ -37,6 +37,9 @@ "hunyuan": { "description": "A large language model developed by Tencent, equipped with powerful Chinese creative capabilities, logical reasoning abilities in complex contexts, and reliable task execution skills." }, + "internlm": { + "description": "An open-source organization dedicated to the research and development of large model toolchains. It provides an efficient and user-friendly open-source platform for all AI developers, making cutting-edge large models and algorithm technologies easily accessible." + }, "minimax": { "description": "MiniMax is a general artificial intelligence technology company established in 2021, dedicated to co-creating intelligence with users. MiniMax has independently developed general large models of different modalities, including trillion-parameter MoE text models, voice models, and image models, and has launched applications such as Conch AI." }, diff --git a/locales/es-ES/models.json b/locales/es-ES/models.json index 68ca37374e2b..4efbc6ec80c0 100644 --- a/locales/es-ES/models.json +++ b/locales/es-ES/models.json @@ -610,6 +610,9 @@ "grok-beta": { "description": "Ofrece un rendimiento comparable al de Grok 2, pero con mayor eficiencia, velocidad y funcionalidad." }, + "grok-vision-beta": { + "description": "El último modelo de comprensión de imágenes, capaz de manejar una amplia variedad de información visual, incluyendo documentos, gráficos, capturas de pantalla y fotos." + }, "gryphe/mythomax-l2-13b": { "description": "MythoMax l2 13B es un modelo de lenguaje que combina creatividad e inteligencia, fusionando múltiples modelos de vanguardia." }, @@ -646,6 +649,12 @@ "internlm/internlm2_5-7b-chat": { "description": "InternLM2.5 ofrece soluciones de diálogo inteligente en múltiples escenarios." }, + "internlm2-pro-chat": { + "description": "Modelo de versión anterior que seguimos manteniendo, disponible en opciones de 7B y 20B parámetros." + }, + "internlm2.5-latest": { + "description": "Nuestra última serie de modelos, con un rendimiento de inferencia excepcional, que admite una longitud de contexto de 1M y una mayor capacidad de seguimiento de instrucciones y llamadas a herramientas." + }, "jamba-1.5-large": {}, "jamba-1.5-mini": {}, "lite": { @@ -969,6 +978,9 @@ "pixtral-12b-2409": { "description": "El modelo Pixtral muestra una fuerte capacidad en tareas como comprensión de gráficos e imágenes, preguntas y respuestas de documentos, razonamiento multimodal y seguimiento de instrucciones, capaz de ingerir imágenes en resolución y proporción natural, y manejar una cantidad arbitraria de imágenes en una ventana de contexto larga de hasta 128K tokens." }, + "pixtral-large-latest": { + "description": "Pixtral Large es un modelo multimodal de código abierto con 124 mil millones de parámetros, construido sobre Mistral Large 2. Este es nuestro segundo modelo en la familia multimodal, que muestra un nivel de comprensión de imágenes de vanguardia." + }, "pro-128k": { "description": "Spark Pro 128K está equipado con una capacidad de procesamiento de contexto extragrande, capaz de manejar hasta 128K de información contextual, especialmente adecuado para el análisis completo y el manejo de relaciones lógicas a largo plazo en contenido extenso, proporcionando una lógica fluida y coherente y un soporte diverso de citas en comunicaciones de texto complejas." }, diff --git a/locales/es-ES/providers.json b/locales/es-ES/providers.json index 37ddc12c4322..9c30c5f9065c 100644 --- a/locales/es-ES/providers.json +++ b/locales/es-ES/providers.json @@ -37,6 +37,9 @@ "hunyuan": { "description": "Un modelo de lenguaje desarrollado por Tencent, que posee una poderosa capacidad de creación en chino, habilidades de razonamiento lógico en contextos complejos y una capacidad confiable para ejecutar tareas." }, + "internlm": { + "description": "Organización de código abierto dedicada a la investigación y desarrollo de herramientas para modelos grandes. Proporciona a todos los desarrolladores de IA una plataforma de código abierto eficiente y fácil de usar, permitiendo el acceso a las tecnologías y algoritmos más avanzados." + }, "minimax": { "description": "MiniMax es una empresa de tecnología de inteligencia artificial general fundada en 2021, dedicada a co-crear inteligencia con los usuarios. MiniMax ha desarrollado de forma independiente modelos de gran tamaño de diferentes modalidades, que incluyen un modelo de texto MoE de un billón de parámetros, un modelo de voz y un modelo de imagen. También ha lanzado aplicaciones como Conch AI." }, diff --git a/locales/fa-IR/models.json b/locales/fa-IR/models.json index 7443a5ba044a..2484f11749b5 100644 --- a/locales/fa-IR/models.json +++ b/locales/fa-IR/models.json @@ -610,6 +610,9 @@ "grok-beta": { "description": "عملکردی معادل Grok 2 دارد، اما با کارایی، سرعت و قابلیت‌های بالاتر." }, + "grok-vision-beta": { + "description": "جدیدترین مدل درک تصویر که می‌تواند انواع مختلف اطلاعات بصری از جمله اسناد، نمودارها، اسکرین‌شات‌ها و عکس‌ها را پردازش کند." + }, "gryphe/mythomax-l2-13b": { "description": "MythoMax l2 13B یک مدل زبانی است که خلاقیت و هوش را با ترکیب چندین مدل برتر به هم پیوند می‌دهد." }, @@ -646,6 +649,12 @@ "internlm/internlm2_5-7b-chat": { "description": "InternLM2.5 راه‌حل‌های گفتگوی هوشمند در چندین سناریو ارائه می‌دهد." }, + "internlm2-pro-chat": { + "description": "مدل قدیمی که هنوز در حال نگهداری است و گزینه‌های مختلفی از پارامترهای ۷B و ۲۰B را ارائه می‌دهد." + }, + "internlm2.5-latest": { + "description": "جدیدترین سری مدل‌های ما با عملکرد استدلال عالی، از طول متن ۱M پشتیبانی می‌کند و توانایی‌های قوی‌تری در پیروی از دستورات و فراخوانی ابزارها دارد." + }, "jamba-1.5-large": {}, "jamba-1.5-mini": {}, "lite": { @@ -969,6 +978,9 @@ "pixtral-12b-2409": { "description": "مدل Pixtral در وظایفی مانند نمودار و درک تصویر، پرسش و پاسخ اسناد، استدلال چندوجهی و پیروی از دستورات، توانایی‌های قدرتمندی از خود نشان می‌دهد. این مدل قادر است تصاویر را با وضوح طبیعی و نسبت ابعاد دریافت کند و همچنین می‌تواند هر تعداد تصویری را در یک پنجره متنی طولانی تا ۱۲۸ هزار توکن پردازش کند." }, + "pixtral-large-latest": { + "description": "Pixtral Large یک مدل چندرسانه‌ای متن‌باز با ۱۲۴۰ میلیارد پارامتر است که بر اساس Mistral Large 2 ساخته شده است. این دومین مدل در خانواده چندرسانه‌ای ماست که توانایی‌های پیشرفته‌ای در درک تصویر را به نمایش می‌گذارد." + }, "pro-128k": { "description": "Spark Pro 128K با قابلیت پردازش متن بسیار بزرگ، قادر به پردازش تا 128K اطلاعات متنی است. این ویژگی به‌ویژه برای تحلیل کامل و پردازش ارتباطات منطقی طولانی‌مدت در محتوای متنی طولانی مناسب است و می‌تواند در ارتباطات متنی پیچیده، پشتیبانی از منطق روان و یکپارچه و ارجاعات متنوع را فراهم کند." }, diff --git a/locales/fa-IR/providers.json b/locales/fa-IR/providers.json index aedfb054cdf1..1d1eb8e0fd1f 100644 --- a/locales/fa-IR/providers.json +++ b/locales/fa-IR/providers.json @@ -37,6 +37,9 @@ "hunyuan": { "description": "مدل زبان بزرگ توسعه‌یافته توسط تنسنت، با توانایی‌های قدرتمند در خلق محتوای چینی، توانایی استدلال منطقی در زمینه‌های پیچیده، و قابلیت اجرای وظایف به‌صورت قابل اعتماد" }, + "internlm": { + "description": "سازمان متن باز متعهد به تحقیق و توسعه ابزارهای مدل‌های بزرگ. ارائه یک پلتفرم متن باز کارآمد و آسان برای تمام توسعه‌دهندگان هوش مصنوعی، تا جدیدترین مدل‌ها و تکنیک‌های الگوریتمی در دسترس باشد." + }, "minimax": { "description": "MiniMax یک شرکت فناوری هوش مصنوعی عمومی است که در سال 2021 تأسیس شد و به همکاری با کاربران برای ایجاد هوش مصنوعی متعهد است. MiniMax به‌طور مستقل مدل‌های بزرگ عمومی چندگانه‌ای را توسعه داده است، از جمله مدل متنی MoE با تریلیون‌ها پارامتر، مدل صوتی و مدل تصویری. همچنین برنامه‌هایی مانند حلزون AI را معرفی کرده است." }, diff --git a/locales/fr-FR/models.json b/locales/fr-FR/models.json index f6da9f891533..588bff4670cd 100644 --- a/locales/fr-FR/models.json +++ b/locales/fr-FR/models.json @@ -610,6 +610,9 @@ "grok-beta": { "description": "Offre des performances comparables à Grok 2, mais avec une efficacité, une vitesse et des fonctionnalités supérieures." }, + "grok-vision-beta": { + "description": "Le dernier modèle de compréhension d'image, capable de traiter une variété d'informations visuelles, y compris des documents, des graphiques, des captures d'écran et des photos." + }, "gryphe/mythomax-l2-13b": { "description": "MythoMax l2 13B est un modèle linguistique combinant créativité et intelligence, intégrant plusieurs modèles de pointe." }, @@ -646,6 +649,12 @@ "internlm/internlm2_5-7b-chat": { "description": "InternLM2.5 fournit des solutions de dialogue intelligent dans divers scénarios." }, + "internlm2-pro-chat": { + "description": "Une ancienne version du modèle que nous maintenons encore, avec des options de paramètres de 7B et 20B disponibles." + }, + "internlm2.5-latest": { + "description": "Notre dernière série de modèles, offrant des performances d'inférence exceptionnelles, prenant en charge une longueur de contexte de 1M et des capacités améliorées de suivi des instructions et d'appel d'outils." + }, "jamba-1.5-large": {}, "jamba-1.5-mini": {}, "lite": { @@ -969,6 +978,9 @@ "pixtral-12b-2409": { "description": "Le modèle Pixtral montre de puissantes capacités dans des tâches telles que la compréhension des graphiques et des images, le questionnement de documents, le raisonnement multimodal et le respect des instructions, capable d'ingérer des images à résolution naturelle et à rapport d'aspect, tout en traitant un nombre quelconque d'images dans une fenêtre de contexte longue allant jusqu'à 128K tokens." }, + "pixtral-large-latest": { + "description": "Pixtral Large est un modèle multimodal open source avec 124 milliards de paramètres, basé sur Mistral Large 2. C'est notre deuxième modèle de la famille multimodale, démontrant des capacités de compréhension d'image à la pointe de la technologie." + }, "pro-128k": { "description": "Spark Pro 128K est doté d'une capacité de traitement de contexte très étendue, capable de gérer jusqu'à 128K d'informations contextuelles, particulièrement adapté pour l'analyse complète et le traitement des relations logiques à long terme dans des contenus longs, offrant une logique fluide et cohérente ainsi qu'un soutien varié pour les références dans des communications textuelles complexes." }, diff --git a/locales/fr-FR/providers.json b/locales/fr-FR/providers.json index 35823bb2461b..28943c70332f 100644 --- a/locales/fr-FR/providers.json +++ b/locales/fr-FR/providers.json @@ -37,6 +37,9 @@ "hunyuan": { "description": "Un modèle de langage développé par Tencent, doté d'une puissante capacité de création en chinois, d'une capacité de raisonnement logique dans des contextes complexes, ainsi que d'une capacité fiable d'exécution des tâches." }, + "internlm": { + "description": "Organisation open source dédiée à la recherche et au développement d'outils pour les grands modèles. Fournit à tous les développeurs d'IA une plateforme open source efficace et facile à utiliser, rendant les technologies de pointe en matière de grands modèles et d'algorithmes accessibles." + }, "minimax": { "description": "MiniMax est une entreprise de technologie d'intelligence artificielle générale fondée en 2021, dédiée à la co-création d'intelligence avec les utilisateurs. MiniMax a développé de manière autonome différents modèles de grande taille, y compris un modèle de texte MoE à un trillion de paramètres, un modèle vocal et un modèle d'image. Elle a également lancé des applications telles que Conch AI." }, diff --git a/locales/it-IT/models.json b/locales/it-IT/models.json index ade74274f021..b302db6fc37c 100644 --- a/locales/it-IT/models.json +++ b/locales/it-IT/models.json @@ -610,6 +610,9 @@ "grok-beta": { "description": "Offre prestazioni comparabili a Grok 2, ma con maggiore efficienza, velocità e funzionalità." }, + "grok-vision-beta": { + "description": "L'ultimo modello di comprensione delle immagini, in grado di gestire una vasta gamma di informazioni visive, tra cui documenti, grafici, screenshot e fotografie." + }, "gryphe/mythomax-l2-13b": { "description": "MythoMax l2 13B è un modello linguistico che combina creatività e intelligenza, unendo diversi modelli di punta." }, @@ -646,6 +649,12 @@ "internlm/internlm2_5-7b-chat": { "description": "InternLM2.5 offre soluzioni di dialogo intelligente in vari scenari." }, + "internlm2-pro-chat": { + "description": "Un modello della vecchia versione che stiamo ancora mantenendo, disponibile in diverse dimensioni di parametri: 7B e 20B." + }, + "internlm2.5-latest": { + "description": "La nostra ultima serie di modelli, con prestazioni di ragionamento eccezionali, supporta una lunghezza di contesto di 1M e offre una migliore capacità di seguire istruzioni e chiamare strumenti." + }, "jamba-1.5-large": {}, "jamba-1.5-mini": {}, "lite": { @@ -969,6 +978,9 @@ "pixtral-12b-2409": { "description": "Il modello Pixtral dimostra potenti capacità in compiti di comprensione di grafici e immagini, domande e risposte su documenti, ragionamento multimodale e rispetto delle istruzioni, in grado di elaborare immagini a risoluzione naturale e proporzioni, e di gestire un numero arbitrario di immagini in una finestra di contesto lunga fino a 128K token." }, + "pixtral-large-latest": { + "description": "Pixtral Large è un modello multimodale open source con 124 miliardi di parametri, costruito su Mistral Large 2. Questo è il nostro secondo modello nella famiglia multimodale, che mostra capacità di comprensione delle immagini a livello all'avanguardia." + }, "pro-128k": { "description": "Spark Pro 128K è dotato di una capacità di elaborazione del contesto eccezionale, in grado di gestire fino a 128K di informazioni contestuali, particolarmente adatto per l'analisi completa e la gestione di associazioni logiche a lungo termine in contenuti lunghi, fornendo una logica fluida e coerente e un supporto variegato per le citazioni in comunicazioni testuali complesse." }, diff --git a/locales/it-IT/providers.json b/locales/it-IT/providers.json index c4553026ee60..cf77a9901993 100644 --- a/locales/it-IT/providers.json +++ b/locales/it-IT/providers.json @@ -37,6 +37,9 @@ "hunyuan": { "description": "Un modello di linguaggio sviluppato da Tencent, dotato di potenti capacità di creazione in cinese, abilità di ragionamento logico in contesti complessi e capacità affidabili di esecuzione dei compiti." }, + "internlm": { + "description": "Un'organizzazione open source dedicata alla ricerca e allo sviluppo di strumenti per modelli di grandi dimensioni. Fornisce a tutti gli sviluppatori di AI una piattaforma open source efficiente e facile da usare, rendendo le tecnologie e gli algoritmi all'avanguardia accessibili a tutti." + }, "minimax": { "description": "MiniMax è un'azienda di tecnologia dell'intelligenza artificiale generale fondata nel 2021, dedicata alla co-creazione di intelligenza con gli utenti. MiniMax ha sviluppato modelli generali di diverse modalità, tra cui un modello di testo MoE con trilioni di parametri, un modello vocale e un modello visivo. Ha anche lanciato applicazioni come Conch AI." }, diff --git a/locales/ja-JP/models.json b/locales/ja-JP/models.json index 4937ddbce98a..bf81d722e6f5 100644 --- a/locales/ja-JP/models.json +++ b/locales/ja-JP/models.json @@ -610,6 +610,9 @@ "grok-beta": { "description": "Grok 2と同等の性能を持ちながら、より高い効率、速度、機能を備えています。" }, + "grok-vision-beta": { + "description": "最新の画像理解モデルで、文書、グラフ、スクリーンショット、写真など、さまざまな視覚情報を処理できます。" + }, "gryphe/mythomax-l2-13b": { "description": "MythoMax l2 13Bは複数のトップモデルを統合した創造性と知性を兼ね備えた言語モデルです。" }, @@ -646,6 +649,12 @@ "internlm/internlm2_5-7b-chat": { "description": "InternLM2.5は多様なシーンでのインテリジェントな対話ソリューションを提供します。" }, + "internlm2-pro-chat": { + "description": "私たちがまだ維持している旧バージョンのモデルで、7B、20Bのさまざまなモデルパラメータ量が選択可能です。" + }, + "internlm2.5-latest": { + "description": "私たちの最新のモデルシリーズで、卓越した推論性能を持ち、1Mのコンテキスト長をサポートし、より強力な指示追従とツール呼び出し能力を備えています。" + }, "jamba-1.5-large": {}, "jamba-1.5-mini": {}, "lite": { @@ -969,6 +978,9 @@ "pixtral-12b-2409": { "description": "Pixtralモデルは、グラフと画像理解、文書質問応答、多モーダル推論、指示遵守などのタスクで強力な能力を発揮し、自然な解像度とアスペクト比で画像を取り込み、最大128Kトークンの長いコンテキストウィンドウで任意の数の画像を処理できます。" }, + "pixtral-large-latest": { + "description": "Pixtral Largeは、1240億のパラメータを持つオープンソースのマルチモーダルモデルで、Mistral Large 2に基づいて構築されています。これは私たちのマルチモーダルファミリーの中で2番目のモデルであり、最先端の画像理解能力を示しています。" + }, "pro-128k": { "description": "Spark Pro 128Kは特大のコンテキスト処理能力を備え、最大128Kのコンテキスト情報を処理できます。特に、全体を通じての分析や長期的な論理的関連性の処理が必要な長文コンテンツに適しており、複雑なテキストコミュニケーションにおいて滑らかで一貫した論理と多様な引用サポートを提供します。" }, diff --git a/locales/ja-JP/providers.json b/locales/ja-JP/providers.json index 7cc6433c7c93..f5a1df847e4a 100644 --- a/locales/ja-JP/providers.json +++ b/locales/ja-JP/providers.json @@ -37,6 +37,9 @@ "hunyuan": { "description": "テンセントが開発した大規模言語モデルであり、強力な中国語の創作能力、複雑な文脈における論理的推論能力、そして信頼性の高いタスク実行能力を備えています。" }, + "internlm": { + "description": "大規模モデルの研究と開発ツールチェーンに特化したオープンソース組織です。すべてのAI開発者に対して、高効率で使いやすいオープンプラットフォームを提供し、最先端の大規模モデルとアルゴリズム技術を身近に感じられるようにします。" + }, "minimax": { "description": "MiniMaxは2021年に設立された汎用人工知能テクノロジー企業であり、ユーザーと共に知能を共創することに取り組んでいます。MiniMaxは、さまざまなモードの汎用大モデルを独自に開発しており、トリリオンパラメータのMoEテキスト大モデル、音声大モデル、画像大モデルを含んでいます。また、海螺AIなどのアプリケーションも展開しています。" }, diff --git a/locales/ko-KR/models.json b/locales/ko-KR/models.json index 0a4aca9ee7bd..f83616e6b54e 100644 --- a/locales/ko-KR/models.json +++ b/locales/ko-KR/models.json @@ -610,6 +610,9 @@ "grok-beta": { "description": "Grok 2와 유사한 성능을 가지지만, 더 높은 효율성, 속도 및 기능을 제공합니다." }, + "grok-vision-beta": { + "description": "최신 이미지 이해 모델로, 문서, 차트, 스크린샷 및 사진 등 다양한 시각 정보를 처리할 수 있습니다." + }, "gryphe/mythomax-l2-13b": { "description": "MythoMax l2 13B는 여러 최상위 모델을 통합한 창의성과 지능이 결합된 언어 모델입니다." }, @@ -646,6 +649,12 @@ "internlm/internlm2_5-7b-chat": { "description": "InternLM2.5는 다양한 시나리오에서 스마트 대화 솔루션을 제공합니다." }, + "internlm2-pro-chat": { + "description": "우리가 여전히 유지 관리하는 구버전 모델로, 7B 및 20B와 같은 다양한 모델 매개변수 옵션이 있습니다." + }, + "internlm2.5-latest": { + "description": "우리가 최신으로 선보이는 모델 시리즈로, 뛰어난 추론 성능을 자랑하며 1M의 컨텍스트 길이와 더 강력한 지시 따르기 및 도구 호출 기능을 지원합니다." + }, "jamba-1.5-large": {}, "jamba-1.5-mini": {}, "lite": { @@ -969,6 +978,9 @@ "pixtral-12b-2409": { "description": "Pixtral 모델은 차트 및 이미지 이해, 문서 질문 응답, 다중 모드 추론 및 지시 준수와 같은 작업에서 강력한 능력을 발휘하며, 자연 해상도와 가로 세로 비율로 이미지를 입력할 수 있고, 최대 128K 토큰의 긴 컨텍스트 창에서 임의의 수의 이미지를 처리할 수 있습니다." }, + "pixtral-large-latest": { + "description": "Pixtral Large는 1240억 개의 매개변수를 가진 오픈 소스 다중 모달 모델로, Mistral Large 2를 기반으로 구축되었습니다. 이는 우리의 다중 모달 가족 중 두 번째 모델로, 최첨단 수준의 이미지 이해 능력을 보여줍니다." + }, "pro-128k": { "description": "Spark Pro 128K는 매우 큰 컨텍스트 처리 능력을 갖추고 있으며, 최대 128K의 컨텍스트 정보를 처리할 수 있습니다. 특히 전체 분석 및 장기 논리 연관 처리가 필요한 긴 문서 콘텐츠에 적합하며, 복잡한 텍스트 커뮤니케이션에서 매끄럽고 일관된 논리와 다양한 인용 지원을 제공합니다." }, diff --git a/locales/ko-KR/providers.json b/locales/ko-KR/providers.json index c0ca62848da3..825c45dba544 100644 --- a/locales/ko-KR/providers.json +++ b/locales/ko-KR/providers.json @@ -37,6 +37,9 @@ "hunyuan": { "description": "텐센트가 개발한 대형 언어 모델로, 강력한 한국어 창작 능력과 복잡한 맥락에서의 논리적 추론 능력, 그리고 신뢰할 수 있는 작업 수행 능력을 갖추고 있습니다." }, + "internlm": { + "description": "대규모 모델 연구 및 개발 도구 체인에 전념하는 오픈 소스 조직입니다. 모든 AI 개발자에게 효율적이고 사용하기 쉬운 오픈 소스 플랫폼을 제공하여 최첨단 대규모 모델 및 알고리즘 기술을 손쉽게 이용할 수 있도록 합니다." + }, "minimax": { "description": "MiniMax는 2021년에 설립된 일반 인공지능 기술 회사로, 사용자와 함께 지능을 공동 창출하는 데 전념하고 있습니다. MiniMax는 다양한 모드의 일반 대형 모델을 독자적으로 개발하였으며, 여기에는 조 단위의 MoE 텍스트 대형 모델, 음성 대형 모델 및 이미지 대형 모델이 포함됩니다. 또한 해마 AI와 같은 응용 프로그램을 출시하였습니다." }, diff --git a/locales/nl-NL/models.json b/locales/nl-NL/models.json index b02e6d0781f8..2eaeadcdda22 100644 --- a/locales/nl-NL/models.json +++ b/locales/nl-NL/models.json @@ -610,6 +610,9 @@ "grok-beta": { "description": "Biedt prestaties vergelijkbaar met Grok 2, maar met hogere efficiëntie, snelheid en functionaliteit." }, + "grok-vision-beta": { + "description": "Het nieuwste model voor beeldbegrip, dat een breed scala aan visuele informatie kan verwerken, waaronder documenten, grafieken, screenshots en foto's." + }, "gryphe/mythomax-l2-13b": { "description": "MythoMax l2 13B is een taalmodel dat creativiteit en intelligentie combineert door meerdere topmodellen te integreren." }, @@ -646,6 +649,12 @@ "internlm/internlm2_5-7b-chat": { "description": "InternLM2.5 biedt intelligente gespreksoplossingen voor meerdere scenario's." }, + "internlm2-pro-chat": { + "description": "Onze oudere modelversie die we nog steeds onderhouden, met opties voor 7B en 20B parameters." + }, + "internlm2.5-latest": { + "description": "Onze nieuwste modelreeks met uitstekende redeneervaardigheden, ondersteunt een contextlengte van 1M en heeft verbeterde instructievolging en toolaanroepmogelijkheden." + }, "jamba-1.5-large": {}, "jamba-1.5-mini": {}, "lite": { @@ -969,6 +978,9 @@ "pixtral-12b-2409": { "description": "Het Pixtral model toont sterke capaciteiten in taken zoals grafiek- en beeldbegrip, documentvraag-en-antwoord, multimodale redenering en instructievolging, en kan afbeeldingen met natuurlijke resolutie en beeldverhouding verwerken, evenals een onbeperkt aantal afbeeldingen in een lange contextvenster van maximaal 128K tokens." }, + "pixtral-large-latest": { + "description": "Pixtral Large is een open-source multimodaal model met 124 miljard parameters, gebaseerd op Mistral Large 2. Dit is ons tweede model in de multimodale familie en toont geavanceerde beeldbegripcapaciteiten." + }, "pro-128k": { "description": "Spark Pro 128K is uitgerust met een zeer grote contextverwerkingscapaciteit, in staat om tot 128K contextinformatie te verwerken. Het is bijzonder geschikt voor lange teksten die een volledige analyse en langdurige logische verbanden vereisen, en biedt een vloeiende en consistente logica met diverse ondersteuningen voor citaten in complexe tekstcommunicatie." }, diff --git a/locales/nl-NL/providers.json b/locales/nl-NL/providers.json index 825d79d5be71..bd59423bb76c 100644 --- a/locales/nl-NL/providers.json +++ b/locales/nl-NL/providers.json @@ -37,6 +37,9 @@ "hunyuan": { "description": "Een door Tencent ontwikkeld groot taalmodel, dat beschikt over krachtige Chinese creatiecapaciteiten, logische redeneervaardigheden in complexe contexten, en betrouwbare taakuitvoeringscapaciteiten." }, + "internlm": { + "description": "Een open-source organisatie die zich richt op onderzoek en ontwikkeling van tools voor grote modellen. Biedt een efficiënt en gebruiksvriendelijk open-source platform voor alle AI-ontwikkelaars, zodat de meest geavanceerde modellen en algoritmische technologieën binnen handbereik zijn." + }, "minimax": { "description": "MiniMax is een algemeen kunstmatige intelligentietechnologiebedrijf dat in 2021 is opgericht, en zich richt op co-creatie van intelligentie met gebruikers. MiniMax heeft verschillende multimodale algemene grote modellen ontwikkeld, waaronder een MoE-tekstgrootmodel met triljoenen parameters, een spraakgrootmodel en een afbeeldingsgrootmodel. Ze hebben ook toepassingen zoals Conch AI gelanceerd." }, diff --git a/locales/pl-PL/models.json b/locales/pl-PL/models.json index efdecf439618..30fe99f899d5 100644 --- a/locales/pl-PL/models.json +++ b/locales/pl-PL/models.json @@ -610,6 +610,9 @@ "grok-beta": { "description": "Oferuje wydajność porównywalną z Grok 2, ale z wyższą efektywnością, prędkością i funkcjonalnością." }, + "grok-vision-beta": { + "description": "Najnowszy model rozumienia obrazów, który potrafi przetwarzać różnorodne informacje wizualne, w tym dokumenty, wykresy, zrzuty ekranu i zdjęcia." + }, "gryphe/mythomax-l2-13b": { "description": "MythoMax l2 13B to model językowy łączący kreatywność i inteligencję, zintegrowany z wieloma wiodącymi modelami." }, @@ -646,6 +649,12 @@ "internlm/internlm2_5-7b-chat": { "description": "InternLM2.5 oferuje inteligentne rozwiązania dialogowe w różnych scenariuszach." }, + "internlm2-pro-chat": { + "description": "Starsza wersja modelu, którą nadal utrzymujemy, dostępna w różnych wariantach parametrów: 7B i 20B." + }, + "internlm2.5-latest": { + "description": "Nasza najnowsza seria modeli, charakteryzująca się doskonałymi osiągami wnioskowania, obsługująca długość kontekstu do 1M oraz lepsze możliwości śledzenia instrukcji i wywoływania narzędzi." + }, "jamba-1.5-large": {}, "jamba-1.5-mini": {}, "lite": { @@ -969,6 +978,9 @@ "pixtral-12b-2409": { "description": "Model Pixtral wykazuje silne zdolności w zadaniach związanych z analizą wykresów i zrozumieniem obrazów, pytaniami dokumentowymi, wielomodalnym rozumowaniem i przestrzeganiem instrukcji, zdolny do przyjmowania obrazów w naturalnej rozdzielczości i proporcjach, a także do przetwarzania dowolnej liczby obrazów w długim oknie kontekstowym o długości do 128K tokenów." }, + "pixtral-large-latest": { + "description": "Pixtral Large to otwarty model wielomodalny z 124 miliardami parametrów, zbudowany na bazie Mistral Large 2. To nasz drugi model w rodzinie wielomodalnej, który wykazuje zaawansowane zdolności rozumienia obrazów." + }, "pro-128k": { "description": "Spark Pro 128K jest wyposażony w wyjątkową zdolność przetwarzania kontekstu, mogąc obsługiwać do 128K informacji kontekstowych, co czyni go idealnym do analizy całościowej i długoterminowego przetwarzania logicznych powiązań w długich treściach, zapewniając płynność i spójność logiczną oraz różnorodne wsparcie cytatów w złożonej komunikacji tekstowej." }, diff --git a/locales/pl-PL/providers.json b/locales/pl-PL/providers.json index 383ccacaa7ba..30d88d66b868 100644 --- a/locales/pl-PL/providers.json +++ b/locales/pl-PL/providers.json @@ -37,6 +37,9 @@ "hunyuan": { "description": "Model językowy opracowany przez Tencent, który posiada potężne zdolności twórcze w języku chińskim, umiejętność logicznego wnioskowania w złożonych kontekstach oraz niezawodne zdolności wykonawcze w zadaniach." }, + "internlm": { + "description": "Organizacja open source poświęcona badaniom i rozwojowi narzędzi dla dużych modeli. Oferuje wszystkim deweloperom AI wydajną i łatwą w użyciu platformę open source, umożliwiającą dostęp do najnowocześniejszych technologii modeli i algorytmów." + }, "minimax": { "description": "MiniMax to firma technologiczna zajmująca się ogólną sztuczną inteligencją, założona w 2021 roku, dążąca do współtworzenia inteligencji z użytkownikami. MiniMax opracowało różne modele dużych modeli o różnych modalnościach, w tym model tekstowy MoE z bilionem parametrów, model głosowy oraz model obrazowy. Wprowadziło również aplikacje takie jak Conch AI." }, diff --git a/locales/pt-BR/models.json b/locales/pt-BR/models.json index adead9e5fa03..9fb5132afa9e 100644 --- a/locales/pt-BR/models.json +++ b/locales/pt-BR/models.json @@ -610,6 +610,9 @@ "grok-beta": { "description": "Apresenta desempenho equivalente ao Grok 2, mas com maior eficiência, velocidade e funcionalidades." }, + "grok-vision-beta": { + "description": "O mais recente modelo de compreensão de imagem, capaz de lidar com uma variedade de informações visuais, incluindo documentos, gráficos, capturas de tela e fotos." + }, "gryphe/mythomax-l2-13b": { "description": "MythoMax l2 13B é um modelo de linguagem que combina criatividade e inteligência, integrando vários modelos de ponta." }, @@ -646,6 +649,12 @@ "internlm/internlm2_5-7b-chat": { "description": "InternLM2.5 oferece soluções de diálogo inteligente em múltiplos cenários." }, + "internlm2-pro-chat": { + "description": "Modelo mais antigo que ainda estamos mantendo, disponível em opções de 7B e 20B de parâmetros." + }, + "internlm2.5-latest": { + "description": "Nossa mais recente série de modelos, com desempenho de raciocínio excepcional, suportando um comprimento de contexto de 1M e capacidades aprimoradas de seguimento de instruções e chamadas de ferramentas." + }, "jamba-1.5-large": {}, "jamba-1.5-mini": {}, "lite": { @@ -969,6 +978,9 @@ "pixtral-12b-2409": { "description": "O modelo Pixtral demonstra forte capacidade em tarefas de compreensão de gráficos e imagens, perguntas e respostas de documentos, raciocínio multimodal e seguimento de instruções, podendo ingerir imagens em resolução natural e proporções, além de processar um número arbitrário de imagens em uma janela de contexto longa de até 128K tokens." }, + "pixtral-large-latest": { + "description": "Pixtral Large é um modelo multimodal de código aberto com 124 bilhões de parâmetros, baseado no Mistral Large 2. Este é o segundo modelo da nossa família multimodal, demonstrando capacidades de compreensão de imagem de nível avançado." + }, "pro-128k": { "description": "Spark Pro 128K possui uma capacidade de processamento de contexto extremamente grande, capaz de lidar com até 128K de informações contextuais, especialmente adequado para análise completa e processamento de associações lógicas de longo prazo em conteúdos longos, podendo oferecer lógica fluida e consistente e suporte a diversas citações em comunicações textuais complexas." }, diff --git a/locales/pt-BR/providers.json b/locales/pt-BR/providers.json index 4db37f240a31..d12850723854 100644 --- a/locales/pt-BR/providers.json +++ b/locales/pt-BR/providers.json @@ -37,6 +37,9 @@ "hunyuan": { "description": "Um modelo de linguagem desenvolvido pela Tencent, com forte capacidade de criação em chinês, habilidade de raciocínio lógico em contextos complexos e capacidade confiável de execução de tarefas." }, + "internlm": { + "description": "Uma organização de código aberto dedicada à pesquisa e desenvolvimento de ferramentas para grandes modelos. Oferece uma plataforma de código aberto eficiente e fácil de usar para todos os desenvolvedores de IA, tornando as tecnologias e algoritmos de ponta acessíveis." + }, "minimax": { "description": "MiniMax é uma empresa de tecnologia de inteligência artificial geral fundada em 2021, dedicada a co-criar inteligência com os usuários. A MiniMax desenvolveu internamente diferentes modelos gerais de grande escala, incluindo um modelo de texto MoE com trilhões de parâmetros, um modelo de voz e um modelo de imagem. Também lançou aplicações como Conch AI." }, diff --git a/locales/ru-RU/models.json b/locales/ru-RU/models.json index 2a3719b0c6cd..75329553b962 100644 --- a/locales/ru-RU/models.json +++ b/locales/ru-RU/models.json @@ -610,6 +610,9 @@ "grok-beta": { "description": "Обладает производительностью, сопоставимой с Grok 2, но с большей эффективностью, скоростью и функциональностью." }, + "grok-vision-beta": { + "description": "Новейшая модель понимания изображений, способная обрабатывать разнообразную визуальную информацию, включая документы, графики, скриншоты и фотографии." + }, "gryphe/mythomax-l2-13b": { "description": "MythoMax l2 13B — это языковая модель, объединяющая креативность и интеллект, основанная на нескольких ведущих моделях." }, @@ -646,6 +649,12 @@ "internlm/internlm2_5-7b-chat": { "description": "InternLM2.5 предлагает интеллектуальные решения для диалогов в различных сценариях." }, + "internlm2-pro-chat": { + "description": "Старая версия модели, которую мы все еще поддерживаем, доступная с параметрами 7B и 20B." + }, + "internlm2.5-latest": { + "description": "Наша последняя серия моделей с выдающимися показателями вывода, поддерживающая длину контекста до 1M и обладающая улучшенными возможностями следования инструкциям и вызова инструментов." + }, "jamba-1.5-large": {}, "jamba-1.5-mini": {}, "lite": { @@ -969,6 +978,9 @@ "pixtral-12b-2409": { "description": "Модель Pixtral демонстрирует мощные способности в задачах графиков и понимания изображений, вопросов и ответов по документам, многомодального вывода и соблюдения инструкций, способная обрабатывать изображения в естественном разрешении и соотношении сторон, а также обрабатывать произвольное количество изображений в контекстном окне длиной до 128K токенов." }, + "pixtral-large-latest": { + "description": "Pixtral Large — это открытая многомодальная модель с 1240 миллиардами параметров, основанная на Mistral Large 2. Это вторая модель в нашей многомодальной семье, демонстрирующая передовые уровни понимания изображений." + }, "pro-128k": { "description": "Spark Pro 128K оснащен огромной способностью обработки контекста, способной обрабатывать до 128K контекстной информации, что делает его особенно подходящим для анализа длинных текстов и обработки долгосрочных логических связей, обеспечивая плавную и последовательную логику и разнообразную поддержку ссылок в сложных текстовых коммуникациях." }, diff --git a/locales/ru-RU/providers.json b/locales/ru-RU/providers.json index d89cbb35d211..383a85611784 100644 --- a/locales/ru-RU/providers.json +++ b/locales/ru-RU/providers.json @@ -37,6 +37,9 @@ "hunyuan": { "description": "Большая языковая модель, разработанная Tencent, обладающая мощными способностями к созданию текстов на китайском языке, логическим рассуждениям в сложных контекстах и надежным выполнением задач." }, + "internlm": { + "description": "Открытая организация, занимающаяся исследованием и разработкой инструментов для больших моделей. Предоставляет всем разработчикам ИИ эффективную и удобную открытую платформу, позволяя получить доступ к самым современным технологиям больших моделей и алгоритмов." + }, "minimax": { "description": "MiniMax — это компания по разработке универсального искусственного интеллекта, основанная в 2021 году, стремящаяся к совместному созданию интеллекта с пользователями. MiniMax самостоятельно разработала универсальные большие модели различных модальностей, включая текстовые модели с триллионом параметров, модели речи и модели изображений. Также были запущены приложения, такие как Conch AI." }, diff --git a/locales/tr-TR/models.json b/locales/tr-TR/models.json index 18a302c28e95..1a89531b6f56 100644 --- a/locales/tr-TR/models.json +++ b/locales/tr-TR/models.json @@ -610,6 +610,9 @@ "grok-beta": { "description": "Grok 2 ile karşılaştırılabilir performansa sahip, ancak daha yüksek verimlilik, hız ve işlevsellik sunar." }, + "grok-vision-beta": { + "description": "En son görüntü anlama modeli, belgeler, grafikler, ekran görüntüleri ve fotoğraflar gibi çeşitli görsel bilgileri işleyebilir." + }, "gryphe/mythomax-l2-13b": { "description": "MythoMax l2 13B, birden fazla üst düzey modelin birleşimiyle yaratıcı ve zeka odaklı bir dil modelidir." }, @@ -646,6 +649,12 @@ "internlm/internlm2_5-7b-chat": { "description": "InternLM2.5, çoklu senaryolarda akıllı diyalog çözümleri sunar." }, + "internlm2-pro-chat": { + "description": "Hala bakımını yaptığımız eski sürüm model, 7B ve 20B gibi çeşitli model parametreleri sunmaktadır." + }, + "internlm2.5-latest": { + "description": "En son model serimiz, olağanüstü çıkarım performansına sahiptir, 1M bağlam uzunluğunu destekler ve daha güçlü talimat takibi ve araç çağırma yetenekleri sunar." + }, "jamba-1.5-large": {}, "jamba-1.5-mini": {}, "lite": { @@ -969,6 +978,9 @@ "pixtral-12b-2409": { "description": "Pixtral modeli, grafik ve görüntü anlama, belge yanıtı, çok modlu akıl yürütme ve talimat takibi gibi görevlerde güçlü yetenekler sergiler, doğal çözünürlük ve en boy oranında görüntüleri alabilir ve 128K token uzunluğunda bir bağlam penceresinde herhangi bir sayıda görüntüyü işleyebilir." }, + "pixtral-large-latest": { + "description": "Pixtral Large, 1240 milyar parametreye sahip açık kaynaklı çok modlu bir modeldir ve Mistral Large 2 üzerine inşa edilmiştir. Bu, çok modlu ailemizdeki ikinci modeldir ve öncü düzeyde görüntü anlama yetenekleri sergilemektedir." + }, "pro-128k": { "description": "Spark Pro 128K, olağanüstü bağlam işleme yeteneği ile donatılmıştır ve 128K'ya kadar bağlam bilgilerini işleyebilir. Özellikle uzun metinlerin bütünsel analizi ve uzun vadeli mantıksal ilişkilerin işlenmesi gereken durumlar için uygundur ve karmaşık metin iletişiminde akıcı ve tutarlı bir mantık ile çeşitli alıntı desteği sunmaktadır." }, diff --git a/locales/tr-TR/providers.json b/locales/tr-TR/providers.json index 99102d12f77b..4b3d1c38422c 100644 --- a/locales/tr-TR/providers.json +++ b/locales/tr-TR/providers.json @@ -37,6 +37,9 @@ "hunyuan": { "description": "Tencent tarafından geliştirilen büyük bir dil modeli, güçlü Çince yaratım yeteneklerine, karmaşık bağlamlarda mantıksal akıl yürütme yeteneğine ve güvenilir görev yerine getirme yeteneğine sahiptir." }, + "internlm": { + "description": "Büyük model araştırma ve geliştirme araç zincirine adanmış bir açık kaynak organizasyonu. Tüm AI geliştiricilerine verimli ve kullanımı kolay bir açık kaynak platformu sunarak en son büyük model ve algoritma teknolojilerine erişimi kolaylaştırır." + }, "minimax": { "description": "MiniMax, 2021 yılında kurulan genel yapay zeka teknolojisi şirketidir ve kullanıcılarla birlikte akıllı çözümler yaratmayı hedeflemektedir. MiniMax, farklı modlarda genel büyük modeller geliştirmiştir. Bunlar arasında trilyon parametreli MoE metin büyük modeli, ses büyük modeli ve görüntü büyük modeli bulunmaktadır. Ayrıca, Conch AI gibi uygulamalar da sunmaktadır." }, diff --git a/locales/vi-VN/models.json b/locales/vi-VN/models.json index 85e84947d1d0..d55a063386e2 100644 --- a/locales/vi-VN/models.json +++ b/locales/vi-VN/models.json @@ -610,6 +610,9 @@ "grok-beta": { "description": "Có hiệu suất tương đương với Grok 2, nhưng hiệu quả, tốc độ và tính năng cao hơn." }, + "grok-vision-beta": { + "description": "Mô hình hiểu hình ảnh mới nhất, có khả năng xử lý nhiều loại thông tin hình ảnh khác nhau, bao gồm tài liệu, biểu đồ, ảnh chụp màn hình và ảnh." + }, "gryphe/mythomax-l2-13b": { "description": "MythoMax l2 13B là mô hình ngôn ngữ kết hợp giữa sáng tạo và trí thông minh, kết hợp nhiều mô hình hàng đầu." }, @@ -646,6 +649,12 @@ "internlm/internlm2_5-7b-chat": { "description": "InternLM2.5 cung cấp giải pháp đối thoại thông minh cho nhiều tình huống." }, + "internlm2-pro-chat": { + "description": "Mô hình phiên bản cũ mà chúng tôi vẫn đang duy trì, có sẵn với nhiều tùy chọn tham số 7B và 20B." + }, + "internlm2.5-latest": { + "description": "Dòng mô hình mới nhất của chúng tôi, có hiệu suất suy luận xuất sắc, hỗ trợ độ dài ngữ cảnh 1M và khả năng theo dõi chỉ dẫn và gọi công cụ mạnh mẽ hơn." + }, "jamba-1.5-large": {}, "jamba-1.5-mini": {}, "lite": { @@ -969,6 +978,9 @@ "pixtral-12b-2409": { "description": "Mô hình Pixtral thể hiện khả năng mạnh mẽ trong các nhiệm vụ như hiểu biểu đồ và hình ảnh, hỏi đáp tài liệu, suy luận đa phương tiện và tuân thủ hướng dẫn, có khả năng tiếp nhận hình ảnh với độ phân giải và tỷ lệ khung hình tự nhiên, cũng như xử lý bất kỳ số lượng hình ảnh nào trong cửa sổ ngữ cảnh dài lên đến 128K token." }, + "pixtral-large-latest": { + "description": "Pixtral Large là một mô hình đa phương thức mã nguồn mở với 1240 tỷ tham số, được xây dựng dựa trên Mistral Large 2. Đây là mô hình thứ hai trong gia đình đa phương thức của chúng tôi, thể hiện khả năng hiểu hình ảnh ở mức tiên tiến." + }, "pro-128k": { "description": "Spark Pro 128K được cấu hình với khả năng xử lý ngữ cảnh cực lớn, có thể xử lý tới 128K thông tin ngữ cảnh, đặc biệt phù hợp cho việc phân tích toàn bộ và xử lý mối liên hệ logic lâu dài trong nội dung văn bản dài, có thể cung cấp logic mạch lạc và hỗ trợ trích dẫn đa dạng trong giao tiếp văn bản phức tạp." }, diff --git a/locales/vi-VN/providers.json b/locales/vi-VN/providers.json index b251a1f69dff..4cd5633be6be 100644 --- a/locales/vi-VN/providers.json +++ b/locales/vi-VN/providers.json @@ -37,6 +37,9 @@ "hunyuan": { "description": "Mô hình ngôn ngữ lớn được phát triển bởi Tencent, có khả năng sáng tạo tiếng Trung mạnh mẽ, khả năng suy luận logic trong các ngữ cảnh phức tạp, và khả năng thực hiện nhiệm vụ đáng tin cậy." }, + "internlm": { + "description": "Tổ chức mã nguồn mở chuyên nghiên cứu và phát triển công cụ cho mô hình lớn. Cung cấp nền tảng mã nguồn mở hiệu quả, dễ sử dụng cho tất cả các nhà phát triển AI, giúp tiếp cận công nghệ mô hình lớn và thuật toán tiên tiến nhất." + }, "minimax": { "description": "MiniMax là công ty công nghệ trí tuệ nhân tạo tổng quát được thành lập vào năm 2021, cam kết cùng người dùng sáng tạo trí thông minh. MiniMax đã tự phát triển nhiều mô hình lớn đa phương thức, bao gồm mô hình văn bản MoE với một triệu tham số, mô hình giọng nói và mô hình hình ảnh. Họ cũng đã phát hành các ứng dụng như AI Hải Lý." }, diff --git a/locales/zh-CN/models.json b/locales/zh-CN/models.json index f172d3441f85..aba349d33a79 100644 --- a/locales/zh-CN/models.json +++ b/locales/zh-CN/models.json @@ -610,6 +610,9 @@ "grok-beta": { "description": "拥有与 Grok 2 相当的性能,但具有更高的效率、速度和功能。" }, + "grok-vision-beta": { + "description": "最新的图像理解模型,可以处理各种各样的视觉信息,包括文档、图表、截图和照片等。" + }, "gryphe/mythomax-l2-13b": { "description": "MythoMax l2 13B 是一款合并了多个顶尖模型的创意与智能相结合的语言模型。" }, @@ -646,6 +649,12 @@ "internlm/internlm2_5-7b-chat": { "description": "InternLM2.5 提供多场景下的智能对话解决方案。" }, + "internlm2-pro-chat": { + "description": "我们仍在维护的老版本模型,有 7B、20B 多种模型参数量可选。" + }, + "internlm2.5-latest": { + "description": "我们最新的模型系列,有着卓越的推理性能,支持 1M 的上下文长度以及更强的指令跟随和工具调用能力。" + }, "jamba-1.5-large": {}, "jamba-1.5-mini": {}, "lite": { @@ -969,6 +978,9 @@ "pixtral-12b-2409": { "description": "Pixtral 模型在图表和图理解、文档问答、多模态推理和指令遵循等任务上表现出强大的能力,能够以自然分辨率和宽高比摄入图像,还能够在长达 128K 令牌的长上下文窗口中处理任意数量的图像。" }, + "pixtral-large-latest": { + "description": "Pixtral Large 是一款拥有 1240 亿参数的开源多模态模型,基于 Mistral Large 2 构建。这是我们多模态家族中的第二款模型,展现了前沿水平的图像理解能力。" + }, "pro-128k": { "description": "Spark Pro 128K 配置了特大上下文处理能力,能够处理多达128K的上下文信息,特别适合需通篇分析和长期逻辑关联处理的长文内容,可在复杂文本沟通中提供流畅一致的逻辑与多样的引用支持。" }, diff --git a/locales/zh-CN/providers.json b/locales/zh-CN/providers.json index 3da95818dc6b..cb41fbb3f200 100644 --- a/locales/zh-CN/providers.json +++ b/locales/zh-CN/providers.json @@ -37,6 +37,9 @@ "hunyuan": { "description": "由腾讯研发的大语言模型,具备强大的中文创作能力,复杂语境下的逻辑推理能力,以及可靠的任务执行能力" }, + "internlm": { + "description": "致力于大模型研究与开发工具链的开源组织。为所有 AI 开发者提供高效、易用的开源平台,让最前沿的大模型与算法技术触手可及" + }, "minimax": { "description": "MiniMax 是 2021 年成立的通用人工智能科技公司,致力于与用户共创智能。MiniMax 自主研发了不同模态的通用大模型,其中包括万亿参数的 MoE 文本大模型、语音大模型以及图像大模型。并推出了海螺 AI 等应用。" }, diff --git a/locales/zh-TW/models.json b/locales/zh-TW/models.json index fef20dc4c761..05a99d3b60f2 100644 --- a/locales/zh-TW/models.json +++ b/locales/zh-TW/models.json @@ -610,6 +610,9 @@ "grok-beta": { "description": "擁有與 Grok 2 相當的性能,但具備更高的效率、速度和功能。" }, + "grok-vision-beta": { + "description": "最新的圖像理解模型,可以處理各種各樣的視覺信息,包括文檔、圖表、截圖和照片等。" + }, "gryphe/mythomax-l2-13b": { "description": "MythoMax l2 13B 是一款合併了多個頂尖模型的創意與智能相結合的語言模型。" }, @@ -646,6 +649,12 @@ "internlm/internlm2_5-7b-chat": { "description": "InternLM2.5 提供多場景下的智能對話解決方案。" }, + "internlm2-pro-chat": { + "description": "我們仍在維護的舊版本模型,有 7B、20B 多種模型參數量可選。" + }, + "internlm2.5-latest": { + "description": "我們最新的模型系列,有著卓越的推理性能,支持 1M 的上下文長度以及更強的指令跟隨和工具調用能力。" + }, "jamba-1.5-large": {}, "jamba-1.5-mini": {}, "lite": { @@ -969,6 +978,9 @@ "pixtral-12b-2409": { "description": "Pixtral模型在圖表和圖理解、文檔問答、多模態推理和指令遵循等任務上表現出強大的能力,能夠以自然分辨率和寬高比攝入圖像,還能夠在長達128K令牌的長上下文窗口中處理任意數量的圖像。" }, + "pixtral-large-latest": { + "description": "Pixtral Large 是一款擁有 1240 億參數的開源多模態模型,基於 Mistral Large 2 構建。這是我們多模態家族中的第二款模型,展現了前沿水平的圖像理解能力。" + }, "pro-128k": { "description": "Spark Pro 128K 配置了特大上下文處理能力,能夠處理多達128K的上下文信息,特別適合需通篇分析和長期邏輯關聯處理的長文內容,可在複雜文本溝通中提供流暢一致的邏輯與多樣的引用支持。" }, diff --git a/locales/zh-TW/providers.json b/locales/zh-TW/providers.json index 6345002ba9bb..7f26928b57a4 100644 --- a/locales/zh-TW/providers.json +++ b/locales/zh-TW/providers.json @@ -37,6 +37,9 @@ "hunyuan": { "description": "由騰訊研發的大語言模型,具備強大的中文創作能力、複雜語境下的邏輯推理能力,以及可靠的任務執行能力" }, + "internlm": { + "description": "致力於大模型研究與開發工具鏈的開源組織。為所有 AI 開發者提供高效、易用的開源平台,讓最前沿的大模型與算法技術觸手可及" + }, "minimax": { "description": "MiniMax 是 2021 年成立的通用人工智慧科技公司,致力於與用戶共創智能。MiniMax 自主研發了不同模態的通用大模型,其中包括萬億參數的 MoE 文本大模型、語音大模型以及圖像大模型。並推出了海螺 AI 等應用。" }, diff --git a/src/app/metadata.ts b/src/app/metadata.ts index 4c4f038a81d3..e0cca5b1be9f 100644 --- a/src/app/metadata.ts +++ b/src/app/metadata.ts @@ -2,6 +2,7 @@ import { Metadata } from 'next'; import { appEnv } from '@/config/app'; import { BRANDING_LOGO_URL, BRANDING_NAME, ORG_NAME } from '@/const/branding'; +import { DEFAULT_LANG } from '@/const/locale'; import { OFFICIAL_URL, OG_URL } from '@/const/url'; import { isCustomBranding, isCustomORG } from '@/const/version'; import { translation } from '@/server/translation'; @@ -42,7 +43,7 @@ export const generateMetadata = async (): Promise => { width: 1200, }, ], - locale: 'en-US', + locale: DEFAULT_LANG, siteName: BRANDING_NAME, title: BRANDING_NAME, type: 'website', diff --git a/src/layout/GlobalProvider/index.tsx b/src/layout/GlobalProvider/index.tsx index 7c1255c4a4fe..45299cce5fec 100644 --- a/src/layout/GlobalProvider/index.tsx +++ b/src/layout/GlobalProvider/index.tsx @@ -4,7 +4,7 @@ import { resolveAcceptLanguage } from 'resolve-accept-language'; import { appEnv } from '@/config/app'; import { getServerFeatureFlagsValue } from '@/config/featureFlags'; -import { LOBE_LOCALE_COOKIE } from '@/const/locale'; +import { DEFAULT_LANG, LOBE_LOCALE_COOKIE } from '@/const/locale'; import { LOBE_THEME_APPEARANCE, LOBE_THEME_NEUTRAL_COLOR, @@ -36,7 +36,7 @@ const parserFallbackLang = async () => { header.get('accept-language') || '', // Invalid locale identifier 'ar'. A valid locale should follow the BCP 47 'language-country' format. locales.map((locale) => (locale === 'ar' ? 'ar-EG' : locale)), - 'en-US', + DEFAULT_LANG, ); // if match the ar-EG then fallback to ar if (fallbackLang === 'ar-EG') fallbackLang = 'ar'; diff --git a/src/locales/resources.ts b/src/locales/resources.ts index 99a368db22ff..ee621a466e20 100644 --- a/src/locales/resources.ts +++ b/src/locales/resources.ts @@ -1,3 +1,5 @@ +import { DEFAULT_LANG } from '@/const/locale'; + import resources from './default'; export const locales = [ @@ -23,9 +25,10 @@ export type NS = keyof DefaultResources; export type Locales = (typeof locales)[number]; export const normalizeLocale = (locale?: string): string => { - if (!locale) return 'en-US'; + if (!locale) return DEFAULT_LANG; if (locale.startsWith('ar')) return 'ar'; + if (locale.startsWith('fa')) return 'fa-IR'; if (locale.startsWith('cn')) return 'zh-CN'; @@ -35,7 +38,7 @@ export const normalizeLocale = (locale?: string): string => { } } - return 'en-US'; + return DEFAULT_LANG; }; type LocaleOptions = { diff --git a/src/server/ld.ts b/src/server/ld.ts index 945fde5163f6..44b3424fa71a 100644 --- a/src/server/ld.ts +++ b/src/server/ld.ts @@ -200,7 +200,7 @@ export class Ld { '@id': this.getId(fixedUrl, '#primaryimage'), '@type': 'ImageObject', 'contentUrl': image, - 'inLanguage': 'en-US', + 'inLanguage': DEFAULT_LANG, 'url': image, }; } @@ -210,7 +210,7 @@ export class Ld { '@id': this.getId(OFFICIAL_URL, '#website'), '@type': 'WebSite', 'description': pkg.description, - 'inLanguage': 'en-US', + 'inLanguage': DEFAULT_LANG, 'name': BRANDING_NAME, 'publisher': { '@id': this.getId(OFFICIAL_URL, '#organization'),