@lobehub/chat
Version:
Lobe Chat - an open-source, high-performance chatbot framework that supports speech synthesis, multimodal, and extensible Function Call plugin system. Supports one-click free deployment of your private ChatGPT/LLM web application.
543 lines • 318 kB
JSON
{
"01-ai/yi-1.5-34b-chat": {
"description": "Zero One Everything، جدیدترین مدل متن باز تنظیم شده با 34 میلیارد پارامتر، که تنظیمات آن از چندین سناریوی گفتگویی پشتیبانی میکند و دادههای آموزشی با کیفیت بالا را برای همراستایی با ترجیحات انسانی فراهم میکند."
},
"01-ai/yi-1.5-9b-chat": {
"description": "Zero One Everything، جدیدترین مدل متن باز تنظیم شده با 9 میلیارد پارامتر، که تنظیمات آن از چندین سناریوی گفتگویی پشتیبانی میکند و دادههای آموزشی با کیفیت بالا را برای همراستایی با ترجیحات انسانی فراهم میکند."
},
"360/deepseek-r1": {
"description": "مدل DeepSeek-R1 نسخه 360، که در مرحله پس از آموزش بهطور گستردهای از تکنیکهای یادگیری تقویتی استفاده کرده و توانایی استدلال مدل را بهطور قابل توجهی افزایش داده است. در وظایف ریاضی، کدنویسی و استدلال زبان طبیعی، عملکردی مشابه نسخه رسمی OpenAI o1 دارد."
},
"360gpt-pro": {
"description": "360GPT Pro به عنوان یکی از اعضای مهم سری مدلهای 360 AI، با توانایی پردازش متون بهصورت کارآمد، نیازهای متنوع در زمینههای مختلف کاربردهای زبان طبیعی را برآورده میکند و از قابلیتهایی مانند درک متون طولانی و مکالمات چندمرحلهای پشتیبانی میکند."
},
"360gpt-pro-trans": {
"description": "مدل مخصوص ترجمه، بهطور عمیق بهینهسازی شده و دارای عملکرد پیشرفته در ترجمه است."
},
"360gpt-turbo": {
"description": "360GPT Turbo تواناییهای محاسباتی و مکالمهای قدرتمندی ارائه میدهد و دارای کارایی بالایی در درک و تولید معنا است. این یک راهحل ایدهآل برای دستیار هوشمند برای شرکتها و توسعهدهندگان است."
},
"360gpt-turbo-responsibility-8k": {
"description": "360GPT Turbo Responsibility 8K بر امنیت معنایی و مسئولیتپذیری تأکید دارد و بهطور ویژه برای سناریوهایی طراحی شده است که نیاز بالایی به امنیت محتوا دارند، تا دقت و پایداری تجربه کاربری را تضمین کند."
},
"360gpt2-o1": {
"description": "360gpt2-o1 از جستجوی درخت برای ساخت زنجیرههای تفکر استفاده میکند و مکانیزم بازتاب را معرفی کرده است و با استفاده از یادگیری تقویتی آموزش دیده است، این مدل توانایی خودبازتابی و اصلاح خطا را دارد."
},
"360gpt2-pro": {
"description": "360GPT2 Pro مدل پیشرفته پردازش زبان طبیعی است که توسط شرکت 360 ارائه شده است. این مدل دارای تواناییهای برجستهای در تولید و درک متن است و به ویژه در زمینه تولید و خلاقیت عملکرد فوقالعادهای دارد. همچنین قادر به انجام وظایف پیچیده تبدیل زبان و ایفای نقش میباشد."
},
"360zhinao2-o1": {
"description": "مدل 360zhinao2-o1 با استفاده از جستجوی درختی زنجیره تفکر را ایجاد کرده و مکانیزم بازتاب را معرفی کرده است و با استفاده از یادگیری تقویتی آموزش دیده است، این مدل توانایی خودبازتابی و اصلاح خطا را دارد."
},
"4.0Ultra": {
"description": "Spark Ultra قدرتمندترین نسخه از سری مدلهای بزرگ Spark است که با ارتقاء مسیر جستجوی متصل به شبکه، توانایی درک و خلاصهسازی محتوای متنی را بهبود میبخشد. این یک راهحل جامع برای افزایش بهرهوری در محیط کار و پاسخگویی دقیق به نیازها است و به عنوان یک محصول هوشمند پیشرو در صنعت شناخته میشود."
},
"Baichuan2-Turbo": {
"description": "با استفاده از فناوری تقویت جستجو، مدل بزرگ را به دانش حوزهای و دانش کل وب متصل میکند. از آپلود انواع اسناد مانند PDF، Word و همچنین وارد کردن آدرسهای وب پشتیبانی میکند. اطلاعات بهموقع و جامع دریافت میشود و نتایج خروجی دقیق و حرفهای هستند."
},
"Baichuan3-Turbo": {
"description": "بهینهسازی شده برای سناریوهای پرتکرار سازمانی، با بهبود قابل توجه و نسبت عملکرد به هزینه بالا. در مقایسه با مدل Baichuan2، تولید محتوا ۲۰٪ بهبود یافته، پاسخ به سوالات ۱۷٪ بهتر شده و توانایی نقشآفرینی ۴۰٪ افزایش یافته است. عملکرد کلی بهتر از GPT3.5 است."
},
"Baichuan3-Turbo-128k": {
"description": "دارای پنجره متنی فوقالعاده طولانی ۱۲۸K، بهینهسازی شده برای سناریوهای پرتکرار سازمانی، با بهبود قابل توجه در عملکرد و مقرون به صرفه بودن. در مقایسه با مدل Baichuan2، ۲۰٪ بهبود در تولید محتوا، ۱۷٪ بهبود در پرسش و پاسخ دانش، و ۴۰٪ بهبود در توانایی نقشآفرینی. عملکرد کلی بهتر از GPT3.5 است."
},
"Baichuan4": {
"description": "این مدل از نظر توانایی در داخل کشور رتبه اول را دارد و در وظایف چینی مانند دانشنامه، متون طولانی و تولید محتوا از مدلهای اصلی خارجی پیشی میگیرد. همچنین دارای توانایی چندوجهی پیشرو در صنعت است و در چندین معیار ارزیابی معتبر عملکرد برجستهای دارد."
},
"Baichuan4-Air": {
"description": "توانایی مدل در کشور اول است و در وظایف چینی مانند دانشنامه، متنهای طولانی و تولید خلاقانه از مدلهای اصلی خارجی پیشی میگیرد. همچنین دارای قابلیتهای چندرسانهای پیشرفته در صنعت است و در چندین معیار ارزیابی معتبر عملکرد عالی دارد."
},
"Baichuan4-Turbo": {
"description": "توانایی مدل در کشور اول است و در وظایف چینی مانند دانشنامه، متنهای طولانی و تولید خلاقانه از مدلهای اصلی خارجی پیشی میگیرد. همچنین دارای قابلیتهای چندرسانهای پیشرفته در صنعت است و در چندین معیار ارزیابی معتبر عملکرد عالی دارد."
},
"DeepSeek-R1": {
"description": "مدل LLM پیشرفته و کارآمد که در استدلال، ریاضیات و برنامهنویسی تخصص دارد."
},
"DeepSeek-R1-Distill-Llama-70B": {
"description": "DeepSeek R1 - مدل بزرگتر و هوشمندتر در مجموعه DeepSeek - به ساختار لاما 70B تقطیر شده است. بر اساس آزمونهای معیار و ارزیابیهای انسانی، این مدل نسبت به لاما 70B اصلی هوشمندتر است و به ویژه در وظایفی که نیاز به دقت ریاضی و واقعیات دارند، عملکرد عالی دارد."
},
"DeepSeek-R1-Distill-Qwen-1.5B": {
"description": "مدل تقطیر DeepSeek-R1 مبتنی بر Qwen2.5-Math-1.5B است که با استفاده از یادگیری تقویتی و دادههای شروع سرد عملکرد استدلال را بهینهسازی کرده و مدلهای متنباز را به روز کرده است."
},
"DeepSeek-R1-Distill-Qwen-14B": {
"description": "مدل تقطیر DeepSeek-R1 مبتنی بر Qwen2.5-14B است که با استفاده از یادگیری تقویتی و دادههای شروع سرد عملکرد استدلال را بهینهسازی کرده و مدلهای متنباز را به روز کرده است."
},
"DeepSeek-R1-Distill-Qwen-32B": {
"description": "سری DeepSeek-R1 با استفاده از یادگیری تقویتی و دادههای شروع سرد عملکرد استدلال را بهینهسازی کرده و مدلهای متنباز را به روز کرده و از سطح OpenAI-o1-mini فراتر رفته است."
},
"DeepSeek-R1-Distill-Qwen-7B": {
"description": "مدل تقطیر DeepSeek-R1 مبتنی بر Qwen2.5-Math-7B است که با استفاده از یادگیری تقویتی و دادههای شروع سرد عملکرد استدلال را بهینهسازی کرده و مدلهای متنباز را به روز کرده است."
},
"DeepSeek-V3": {
"description": "DeepSeek-V3 یک مدل MoE است که توسط شرکت DeepSeek توسعه یافته است. نتایج ارزیابیهای متعدد DeepSeek-V3 از مدلهای متن باز دیگر مانند Qwen2.5-72B و Llama-3.1-405B فراتر رفته و از نظر عملکرد با مدلهای بسته جهانی برتر مانند GPT-4o و Claude-3.5-Sonnet برابری میکند."
},
"Doubao-1.5-thinking-pro-m": {
"description": "Doubao-1.5 مدل جدید تفکر عمیق (نسخه m دارای قابلیت استدلال عمیق چندرسانهای بومی است) است که در زمینههای تخصصی مانند ریاضیات، برنامهنویسی، استدلال علمی و همچنین وظایف عمومی مانند نوشتن خلاقانه عملکرد برجستهای دارد و در چندین معیار معتبر مانند AIME 2024، Codeforces، GPQA به سطح اول صنعت دست یافته یا نزدیک شده است. این مدل از پنجره زمینه 128k و خروجی 16k پشتیبانی میکند."
},
"Doubao-1.5-thinking-vision-pro": {
"description": "مدل جدید تفکر عمیق بصری که دارای تواناییهای قویتر در درک و استدلال چندرسانهای عمومی است و در 37 مورد از 59 معیار ارزیابی عمومی عملکرد SOTA را به دست آورده است."
},
"Doubao-1.5-vision-pro": {
"description": "Doubao-1.5-vision-pro مدل بزرگ چندرسانهای بهروز شده است که از شناسایی تصاویر با هر وضوح و نسبت ابعاد بسیار طولانی پشتیبانی میکند و تواناییهای استدلال بصری، شناسایی مستندات، درک اطلاعات جزئی و پیروی از دستورات را تقویت میکند."
},
"Doubao-1.5-vision-pro-32k": {
"description": "مدل بزرگ چندرسانهای ارتقاء یافته Doubao-1.5-vision-pro، از شناسایی تصاویر با هر وضوح و نسبت ابعاد بسیار طولانی پشتیبانی میکند و تواناییهای استدلال بصری، شناسایی اسناد، درک اطلاعات جزئی و پیروی از دستورات را تقویت میکند."
},
"Doubao-lite-128k": {
"description": "Doubao-lite دارای سرعت پاسخدهی بسیار بالا و قیمت مناسبتر است و برای سناریوهای مختلف مشتریان گزینههای منعطفتری ارائه میدهد. این مدل از استنتاج و تنظیم 128k پنجره متنی پشتیبانی میکند."
},
"Doubao-lite-32k": {
"description": "Doubao-lite دارای سرعت پاسخدهی بسیار بالا و قیمت مناسبتر است و برای سناریوهای مختلف مشتریان گزینههای منعطفتری ارائه میدهد. این مدل از استنتاج و تنظیم 32k پنجره متنی پشتیبانی میکند."
},
"Doubao-lite-4k": {
"description": "Doubao-lite دارای سرعت پاسخدهی بسیار بالا و قیمت مناسبتر است و برای سناریوهای مختلف مشتریان گزینههای منعطفتری ارائه میدهد. این مدل از استنتاج و تنظیم 4k پنجره متنی پشتیبانی میکند."
},
"Doubao-pro-128k": {
"description": "بهترین مدل اصلی با عملکرد بسیار خوب برای پردازش وظایف پیچیده است و در سناریوهایی مانند پرسش و پاسخ مدل مرجع، خلاصهنویسی، خلاقیت، طبقهبندی متن و بازی نقش عملکرد خوبی دارد. این مدل از استنتاج و تنظیم 128k پنجره متنی پشتیبانی میکند."
},
"Doubao-pro-256k": {
"description": "بهترین مدل اصلی از نظر عملکرد، مناسب برای پردازش وظایف پیچیده، در زمینههای پرسش و پاسخ مرجع، خلاصهسازی، خلاقیت، طبقهبندی متن و نقشآفرینی عملکرد خوبی دارد. از استدلال و تنظیم دقیق با پنجره زمینه 256k پشتیبانی میکند."
},
"Doubao-pro-32k": {
"description": "بهترین مدل اصلی با عملکرد بسیار خوب برای پردازش وظایف پیچیده است و در سناریوهایی مانند پرسش و پاسخ مدل مرجع، خلاصهنویسی، خلاقیت، طبقهبندی متن و بازی نقش عملکرد خوبی دارد. این مدل از استنتاج و تنظیم 32k پنجره متنی پشتیبانی میکند."
},
"Doubao-pro-4k": {
"description": "بهترین مدل اصلی با عملکرد بسیار خوب برای پردازش وظایف پیچیده است و در سناریوهایی مانند پرسش و پاسخ مدل مرجع، خلاصهنویسی، خلاقیت، طبقهبندی متن و بازی نقش عملکرد خوبی دارد. این مدل از استنتاج و تنظیم 4k پنجره متنی پشتیبانی میکند."
},
"Doubao-vision-lite-32k": {
"description": "مدل Doubao-vision یک مدل بزرگ چندرسانهای است که توسط Doubao ارائه شده و دارای تواناییهای قوی در درک و استدلال تصاویر و همچنین درک دقیق دستورات است. این مدل در استخراج اطلاعات متنی از تصاویر و وظایف استدلال مبتنی بر تصویر عملکرد قوی از خود نشان داده و میتواند در وظایف پیچیدهتر و گستردهتر پرسش و پاسخ بصری به کار رود."
},
"Doubao-vision-pro-32k": {
"description": "مدل Doubao-vision یک مدل بزرگ چندرسانهای است که توسط Doubao ارائه شده و دارای تواناییهای قوی در درک و استدلال تصاویر و همچنین درک دقیق دستورات است. این مدل در استخراج اطلاعات متنی از تصاویر و وظایف استدلال مبتنی بر تصویر عملکرد قوی از خود نشان داده و میتواند در وظایف پیچیدهتر و گستردهتر پرسش و پاسخ بصری به کار رود."
},
"ERNIE-3.5-128K": {
"description": "مدل زبان بزرگ پرچمدار توسعهیافته توسط بایدو، که حجم عظیمی از متون چینی و انگلیسی را پوشش میدهد و دارای تواناییهای عمومی قدرتمندی است. این مدل میتواند نیازهای اکثر سناریوهای پرسش و پاسخ، تولید محتوا و استفاده از افزونهها را برآورده کند؛ همچنین از اتصال خودکار به افزونه جستجوی بایدو پشتیبانی میکند تا بهروز بودن اطلاعات پرسش و پاسخ را تضمین کند."
},
"ERNIE-3.5-8K": {
"description": "مدل زبان بزرگ پرچمدار توسعهیافته توسط بایدو، که حجم عظیمی از متون چینی و انگلیسی را پوشش میدهد و دارای تواناییهای عمومی قدرتمندی است. این مدل میتواند نیازهای اکثر سناریوهای پرسش و پاسخ، تولید محتوا و استفاده از افزونهها را برآورده کند؛ همچنین از اتصال خودکار به افزونه جستجوی بایدو پشتیبانی میکند تا بهروز بودن اطلاعات پرسش و پاسخ را تضمین نماید."
},
"ERNIE-3.5-8K-Preview": {
"description": "مدل زبان بزرگ پرچمدار توسعهیافته توسط بایدو، که حجم عظیمی از متون چینی و انگلیسی را پوشش میدهد و دارای تواناییهای عمومی قدرتمندی است. این مدل میتواند نیازهای اکثر سناریوهای پرسش و پاسخ، تولید محتوا و استفاده از افزونهها را برآورده کند؛ همچنین از اتصال خودکار به افزونه جستجوی بایدو پشتیبانی میکند تا بهروز بودن اطلاعات پرسش و پاسخ را تضمین کند."
},
"ERNIE-4.0-8K-Latest": {
"description": "مدل زبان بزرگ مقیاس پرچمدار توسعهیافته توسط بایدو، که نسبت به ERNIE 3.5 ارتقاء کامل در تواناییهای مدل را به ارمغان آورده است و برای وظایف پیچیده در حوزههای مختلف مناسب است؛ از اتصال خودکار به افزونه جستجوی بایدو پشتیبانی میکند و بهروزرسانی اطلاعات پرسش و پاسخ را تضمین مینماید."
},
"ERNIE-4.0-8K-Preview": {
"description": "مدل زبان بزرگ مقیاس پرچمدار توسعهیافته توسط بایدو، در مقایسه با ERNIE 3.5 ارتقاء کامل تواناییهای مدل را به ارمغان آورده و برای وظایف پیچیده در حوزههای مختلف مناسب است؛ از افزونه جستجوی بایدو پشتیبانی میکند تا اطلاعات پرسش و پاسخ بهروز بماند."
},
"ERNIE-4.0-Turbo-8K-Latest": {
"description": "مدل زبان بزرگ و پیشرفتهای که توسط بایدو توسعه یافته است، با عملکرد برجسته در زمینههای مختلف و مناسب برای وظایف پیچیده؛ از افزونه جستجوی بایدو بهطور خودکار پشتیبانی میکند تا اطلاعات بهروز را در پاسخها تضمین کند. در مقایسه با ERNIE 4.0، عملکرد بهتری دارد."
},
"ERNIE-4.0-Turbo-8K-Preview": {
"description": "مدل زبان بزرگ و پرچمدار با مقیاس فوقالعاده که توسط بایدو توسعه یافته است، با عملکرد برجسته در زمینههای مختلف و مناسب برای وظایف پیچیده؛ پشتیبانی از اتصال خودکار به افزونه جستجوی بایدو برای اطمینان از بهروز بودن اطلاعات پرسش و پاسخ. در مقایسه با ERNIE 4.0، عملکرد بهتری دارد."
},
"ERNIE-Character-8K": {
"description": "مدل زبان بزرگ عمودی توسعهیافته توسط بایدو، مناسب برای صحنههای کاربردی مانند NPCهای بازی، مکالمات پشتیبانی مشتری، و نقشآفرینی در مکالمات. سبک شخصیتها برجستهتر و یکپارچهتر است، توانایی پیروی از دستورات قویتر و عملکرد استدلالی بهینهتر است."
},
"ERNIE-Lite-Pro-128K": {
"description": "مدل زبان بزرگ سبکوزن توسعهیافته توسط بایدو، که تعادل بین عملکرد مدل عالی و کارایی استنتاج را حفظ میکند. عملکرد آن بهتر از ERNIE Lite است و برای استفاده در کارتهای شتابدهنده AI با قدرت محاسباتی پایین مناسب است."
},
"ERNIE-Speed-128K": {
"description": "مدل زبان بزرگ با عملکرد بالا که در سال 2024 توسط بایدو توسعه یافته است. این مدل دارای تواناییهای عمومی برجستهای است و به عنوان یک مدل پایه برای تنظیم دقیق در سناریوهای خاص مناسب است و همچنین از عملکرد استنتاجی بسیار خوبی برخوردار است."
},
"ERNIE-Speed-Pro-128K": {
"description": "مدل زبان بزرگ با عملکرد بالا که در سال 2024 توسط بایدو بهطور مستقل توسعه یافته است. این مدل دارای تواناییهای عمومی برجستهای است و عملکرد بهتری نسبت به ERNIE Speed دارد. مناسب برای استفاده به عنوان مدل پایه برای تنظیم دقیق و حل بهتر مسائل در سناریوهای خاص، همچنین دارای عملکرد استنتاجی بسیار عالی است."
},
"Gryphe/MythoMax-L2-13b": {
"description": "MythoMax-L2 (13B) یک مدل نوآورانه است که برای کاربردهای چندرشتهای و وظایف پیچیده مناسب است."
},
"InternVL2-8B": {
"description": "InternVL2-8B یک مدل زبان بصری قدرتمند است که از پردازش چند حالتی تصویر و متن پشتیبانی میکند و قادر است محتوای تصویر را به دقت شناسایی کرده و توصیف یا پاسخهای مرتبط تولید کند."
},
"InternVL2.5-26B": {
"description": "InternVL2.5-26B یک مدل زبان بصری قدرتمند است که از پردازش چند حالتی تصویر و متن پشتیبانی میکند و قادر است محتوای تصویر را به دقت شناسایی کرده و توصیف یا پاسخهای مرتبط تولید کند."
},
"Llama-3.2-11B-Vision-Instruct": {
"description": "توانایی استدلال تصویری عالی در تصاویر با وضوح بالا، مناسب برای برنامههای درک بصری."
},
"Llama-3.2-90B-Vision-Instruct\t": {
"description": "توانایی استدلال تصویری پیشرفته برای برنامههای نمایندگی درک بصری."
},
"Meta-Llama-3.1-405B-Instruct": {
"description": "مدل متنی تنظیم شده لاما 3.1 که برای موارد مکالمه چند زبانه بهینهسازی شده و در بسیاری از مدلهای چت متن باز و بسته موجود، در معیارهای صنعتی رایج عملکرد عالی دارد."
},
"Meta-Llama-3.1-70B-Instruct": {
"description": "مدل متنی تنظیم شده لاما 3.1 که برای موارد مکالمه چند زبانه بهینهسازی شده و در بسیاری از مدلهای چت متن باز و بسته موجود، در معیارهای صنعتی رایج عملکرد عالی دارد."
},
"Meta-Llama-3.1-8B-Instruct": {
"description": "مدل متنی تنظیم شده لاما 3.1 که برای موارد مکالمه چند زبانه بهینهسازی شده و در بسیاری از مدلهای چت متن باز و بسته موجود، در معیارهای صنعتی رایج عملکرد عالی دارد."
},
"Meta-Llama-3.2-1B-Instruct": {
"description": "مدل زبان کوچک پیشرفته و پیشرفته، با قابلیت درک زبان، توانایی استدلال عالی و توانایی تولید متن."
},
"Meta-Llama-3.2-3B-Instruct": {
"description": "مدل زبان کوچک پیشرفته و پیشرفته، با قابلیت درک زبان، توانایی استدلال عالی و توانایی تولید متن."
},
"Meta-Llama-3.3-70B-Instruct": {
"description": "لاما 3.3 پیشرفتهترین مدل زبان چند زبانه و متن باز در سری لاما است که با هزینهای بسیار کم، عملکردی مشابه مدل 405B را ارائه میدهد. این مدل بر اساس ساختار ترنسفورمر طراحی شده و از طریق تنظیم دقیق نظارتی (SFT) و یادگیری تقویتی با بازخورد انسانی (RLHF) بهبود یافته است تا کارایی و ایمنی آن افزایش یابد. نسخه تنظیم شده آن به طور خاص برای مکالمات چند زبانه بهینهسازی شده و در چندین معیار صنعتی، عملکردی بهتر از بسیاری از مدلهای چت متن باز و بسته دارد. تاریخ قطع دانش آن تا دسامبر 2023 است."
},
"MiniMax-M1": {
"description": "مدل استنتاج کاملاً توسعهیافته داخلی. پیشرو در جهان: ۸۰ هزار زنجیره فکری در برابر ۱ میلیون ورودی، عملکردی برابر با مدلهای برتر خارجی."
},
"MiniMax-Text-01": {
"description": "در سری مدلهای MiniMax-01، ما نوآوریهای جسورانهای انجام دادهایم: برای اولین بار مکانیزم توجه خطی را به طور وسیع پیادهسازی کردهایم و معماری سنتی Transformer دیگر تنها گزینه نیست. این مدل دارای 456 میلیارد پارامتر است که در یک بار فعالسازی 45.9 میلیارد است. عملکرد کلی این مدل با بهترین مدلهای خارجی برابری میکند و در عین حال میتواند به طور مؤثر به متنهای طولانی جهانی با 4 میلیون توکن رسیدگی کند، که 32 برابر GPT-4o و 20 برابر Claude-3.5-Sonnet است."
},
"MiniMaxAI/MiniMax-M1-80k": {
"description": "MiniMax-M1 یک مدل استنتاج بزرگ با وزنهای متنباز و توجه ترکیبی است که دارای ۴۵۶ میلیارد پارامتر است و هر توکن میتواند حدود ۴۵.۹ میلیارد پارامتر را فعال کند. این مدل به طور بومی از زمینه بسیار طولانی ۱ میلیون توکن پشتیبانی میکند و با مکانیزم توجه سریع، در وظایف تولید ۱۰۰ هزار توکن نسبت به DeepSeek R1، ۷۵٪ از محاسبات نقطه شناور را صرفهجویی میکند. همچنین، MiniMax-M1 از معماری MoE (متخصصان ترکیبی) بهره میبرد و با ترکیب الگوریتم CISPO و طراحی توجه ترکیبی در آموزش تقویتی کارآمد، عملکرد پیشرو در صنعت را در استنتاج ورودیهای طولانی و سناریوهای واقعی مهندسی نرمافزار ارائه میدهد."
},
"NousResearch/Nous-Hermes-2-Mixtral-8x7B-DPO": {
"description": "Nous Hermes 2 - Mixtral 8x7B-DPO (46.7B) یک مدل دستورالعمل با دقت بالا است که برای محاسبات پیچیده مناسب است."
},
"Phi-3-medium-128k-instruct": {
"description": "همان مدل Phi-3-medium، اما با اندازه بزرگتر زمینه، مناسب برای RAG یا تعداد کمی از دستورات."
},
"Phi-3-medium-4k-instruct": {
"description": "یک مدل با ۱۴ میلیارد پارامتر که کیفیت آن بهتر از Phi-3-mini است و تمرکز آن بر دادههای با کیفیت بالا و فشردهسازی استدلالی است."
},
"Phi-3-mini-128k-instruct": {
"description": "مدل مشابه Phi-3-mini، اما با اندازه بزرگتر زمینه، مناسب برای RAG یا تعداد کمی از دستورات."
},
"Phi-3-mini-4k-instruct": {
"description": "کوچکترین عضو خانواده Phi-3، بهینهسازی شده برای کیفیت و تأخیر کم."
},
"Phi-3-small-128k-instruct": {
"description": "همان مدل Phi-3-small، اما با اندازه بزرگتر زمینه، مناسب برای RAG یا تعداد کمی از دستورات."
},
"Phi-3-small-8k-instruct": {
"description": "یک مدل با ۷ میلیارد پارامتر که کیفیت آن بهتر از Phi-3-mini است و تمرکز آن بر دادههای با کیفیت بالا و فشردهسازی استدلالی است."
},
"Phi-3.5-mini-instruct": {
"description": "نسخه بهروزرسانیشده مدل Phi-3-mini."
},
"Phi-3.5-vision-instrust": {
"description": "نسخه بهروزرسانیشده مدل Phi-3-vision."
},
"Pro/Qwen/Qwen2-7B-Instruct": {
"description": "Qwen2-7B-Instruct یک مدل زبانی بزرگ با تنظیم دقیق دستوری در سری Qwen2 است که اندازه پارامتر آن 7B است. این مدل بر اساس معماری Transformer ساخته شده و از تکنیکهای SwiGLU،偏置 QKV توجه و توجه گروهی استفاده میکند. این مدل قادر به پردازش ورودیهای بزرگ مقیاس است. این مدل در درک زبان، تولید، توانایی چند زبانه، کدنویسی، ریاضی و استدلال در چندین آزمون معیار عملکرد عالی دارد و از اکثر مدلهای متن باز پیشی گرفته و در برخی وظایف رقابت قابل توجهی با مدلهای اختصاصی نشان میدهد. Qwen2-7B-Instruct در چندین ارزیابی از Qwen1.5-7B-Chat پیشی گرفته و بهبود قابل توجهی در عملکرد نشان داده است."
},
"Pro/Qwen/Qwen2.5-7B-Instruct": {
"description": "Qwen2.5-7B-Instruct یکی از جدیدترین سری مدلهای زبانی بزرگ منتشر شده توسط Alibaba Cloud است. این مدل 7B در زمینههای کدنویسی و ریاضی دارای تواناییهای بهبود یافته قابل توجهی است. این مدل همچنین از پشتیبانی چند زبانه برخوردار است و بیش از 29 زبان از جمله چینی و انگلیسی را پوشش میدهد. این مدل در پیروی از دستورات، درک دادههای ساختاری و تولید خروجیهای ساختاری (به ویژه JSON) به طور قابل توجهی بهبود یافته است."
},
"Pro/Qwen/Qwen2.5-Coder-7B-Instruct": {
"description": "Qwen2.5-Coder-7B-Instruct جدیدترین نسخه از سری مدلهای زبانی بزرگ خاص کد است که توسط Alibaba Cloud منتشر شده است. این مدل بر اساس Qwen2.5 و با آموزش 5.5 تریلیون توکن، توانایی تولید کد، استدلال و اصلاح را به طور قابل توجهی افزایش داده است. این مدل نه تنها توانایی کدنویسی را تقویت کرده بلکه مزایای ریاضی و عمومی را نیز حفظ کرده است. این مدل پایهای جامعتر برای کاربردهای عملی مانند عاملهای کد فراهم میکند."
},
"Pro/Qwen/Qwen2.5-VL-7B-Instruct": {
"description": "Qwen2.5-VL عضو جدید سری Qwen است که توانایی قدرتمند درک بصری دارد. این مدل میتواند متن، نمودارها و طرحبندیهای درون تصاویر را تحلیل کند و همچنین قادر به درک ویدیوهای بلند و گرفتن رویدادهاست. این مدل میتواند استدلال کند، ابزارها را عملیاتی کند، و از چندین فرمت برای تعیین موقعیت اشیا و تولید خروجی ساختاری پشتیبانی میکند. همچنین، آن از رزولوشن و نرخ فریم پویا برای درک ویدیو بهینهسازی شده است و کارایی کدگذار بصری آن نیز افزایش یافته است."
},
"Pro/THUDM/glm-4-9b-chat": {
"description": "GLM-4-9B-Chat نسخه متن باز از مدلهای پیشآموزش شده سری GLM-4 است که توسط AI Zhizhu ارائه شده است. این مدل در زمینههای معنایی، ریاضی، استدلال، کد و دانش عملکرد عالی دارد. علاوه بر پشتیبانی از گفتگوی چند دور، GLM-4-9B-Chat همچنین دارای قابلیتهای پیشرفتهای مانند مرور وب، اجرای کد، فراخوانی ابزارهای سفارشی (Function Call) و استدلال متن طولانی است. این مدل از 26 زبان پشتیبانی میکند، از جمله چینی، انگلیسی، ژاپنی، کرهای و آلمانی. در چندین آزمون معیار، GLM-4-9B-Chat عملکرد عالی نشان داده است، مانند AlignBench-v2، MT-Bench، MMLU و C-Eval. این مدل از حداکثر طول زمینه 128K پشتیبانی میکند و برای تحقیقات علمی و کاربردهای تجاری مناسب است."
},
"Pro/deepseek-ai/DeepSeek-R1": {
"description": "DeepSeek-R1 یک مدل استنتاجی مبتنی بر یادگیری تقویتی (RL) است که مشکلات تکرار و خوانایی را در مدل حل میکند. قبل از RL، DeepSeek-R1 دادههای شروع سرد را معرفی کرده و عملکرد استنتاج را بهینهسازی کرده است. این مدل در وظایف ریاضی، کد و استنتاج با OpenAI-o1 عملکرد مشابهی دارد و از طریق روشهای آموزشی به دقت طراحی شده، عملکرد کلی را بهبود میبخشد."
},
"Pro/deepseek-ai/DeepSeek-R1-0120": {
"description": "DeepSeek-R1 مدلی استدلالی مبتنی بر یادگیری تقویتی (RL) که مشکلات تکراری بودن و خوانایی مدل را حل کرده است. پیش از RL، DeepSeek-R1 دادههای شروع سرد را معرفی کرد تا عملکرد استدلال را بهبود بخشد. این مدل در ریاضیات، کد نویسی و وظایف استدلال عملکردی مشابه OpenAI-o1 دارد و با روشهای آموزشی دقیق، اثر کلی را ارتقاء داده است."
},
"Pro/deepseek-ai/DeepSeek-R1-Distill-Qwen-7B": {
"description": "DeepSeek-R1-Distill-Qwen-7B مدلی است که بر اساس Qwen2.5-Math-7B از طریق دستیابی به دانش (Knowledge Distillation) ساخته شده است. این مدل با استفاده از 800,000 نمونه انتخابی تولید شده توسط DeepSeek-R1 آموزش داده شده و توانایی استنتاج ممتازی نشان میدهد. این مدل در چندین تست استاندارد عملکرد خوبی داشته است، از جمله دقت 92.8٪ در MATH-500، نرخ موفقیت 55.5٪ در AIME 2024 و نمره 1189 در CodeForces، که نشاندهنده تواناییهای قوی ریاضی و برنامهنویسی برای یک مدل با حجم 7B است."
},
"Pro/deepseek-ai/DeepSeek-V3": {
"description": "DeepSeek-V3 یک مدل زبان با 671 میلیارد پارامتر است که از معماری متخصصان ترکیبی (MoE) و توجه چندسر (MLA) استفاده میکند و با استراتژی تعادل بار بدون ضرر کمکی بهینهسازی کارایی استنتاج و آموزش را انجام میدهد. این مدل با پیشآموزش بر روی 14.8 تریلیون توکن با کیفیت بالا و انجام تنظیم دقیق نظارتی و یادگیری تقویتی، در عملکرد از سایر مدلهای متنباز پیشی میگیرد و به مدلهای بسته پیشرو نزدیک میشود."
},
"Pro/deepseek-ai/DeepSeek-V3-1226": {
"description": "DeepSeek-V3 یک مدل زبانی با ۶۷۱۰ میلیارد پارامتر و از نوع متخصص مختلط (MoE) است که از توجه چندسر (MLA) و معماری DeepSeekMoE استفاده میکند و با ترکیب استراتژی تعادل بار بدون ضرر کمکی، کارایی استنتاج و آموزش را بهینه میسازد. با پیشآموزش بر روی ۱۴.۸ تریلیون توکن با کیفیت بالا و انجام تنظیم دقیق نظارتی و یادگیری تقویتی، DeepSeek-V3 در عملکرد از سایر مدلهای متنباز پیشی میگیرد و به مدلهای بسته پیشرو نزدیک میشود."
},
"QwQ-32B-Preview": {
"description": "QwQ-32B-Preview یک مدل پردازش زبان طبیعی نوآورانه است که قادر به پردازش کارآمد مکالمات پیچیده و درک زمینه است."
},
"Qwen/QVQ-72B-Preview": {
"description": "QVQ-72B-Preview یک مدل تحقیقاتی است که توسط تیم Qwen توسعه یافته و بر روی تواناییهای استنتاج بصری تمرکز دارد و در درک صحنههای پیچیده و حل مسائل ریاضی مرتبط با بصری دارای مزیتهای منحصر به فردی است."
},
"Qwen/QwQ-32B": {
"description": "QwQ مدل استنتاجی از سری Qwen است. در مقایسه با مدلهای سنتی بهینهسازی دستورالعمل، QwQ دارای توانایی تفکر و استنتاج است و میتواند در وظایف پاییندستی عملکرد قابل توجهی را به ویژه در حل مسائل دشوار ارائه دهد. QwQ-32B یک مدل استنتاجی متوسط است که میتواند در مقایسه با مدلهای استنتاجی پیشرفته (مانند DeepSeek-R1، o1-mini) عملکرد رقابتی را به دست آورد. این مدل از تکنیکهایی مانند RoPE، SwiGLU، RMSNorm و Attention QKV bias استفاده میکند و دارای ساختار شبکه 64 لایه و 40 سر توجه Q (در معماری GQA، KV برابر با 8 است) میباشد."
},
"Qwen/QwQ-32B-Preview": {
"description": "QwQ-32B-Preview جدیدترین مدل تحقیقاتی تجربی Qwen است که بر بهبود توانایی استدلال AI تمرکز دارد. با کاوش در مکانیزمهای پیچیدهای مانند ترکیب زبان و استدلال بازگشتی، مزایای اصلی شامل توانایی تحلیل استدلال قوی، توانایی ریاضی و برنامهنویسی است. در عین حال، مشکلاتی مانند تغییر زبان، حلقههای استدلال، ملاحظات ایمنی و تفاوتهای دیگر در تواناییها وجود دارد."
},
"Qwen/Qwen2-72B-Instruct": {
"description": "Qwen 2 Instruct (72B) دستورالعملهای دقیق برای کاربردهای سازمانی ارائه میدهد و به درستی به آنها پاسخ میدهد."
},
"Qwen/Qwen2-7B-Instruct": {
"description": "Qwen2-72B-Instruct یک مدل زبانی بزرگ با تنظیم دقیق دستوری در سری Qwen2 است که اندازه پارامتر آن 72B است. این مدل بر اساس معماری Transformer ساخته شده و از تکنیکهای SwiGLU،偏置 QKV توجه و توجه گروهی استفاده میکند. این مدل قادر به پردازش ورودیهای بزرگ مقیاس است. این مدل در درک زبان، تولید، توانایی چند زبانه، کدنویسی، ریاضی و استدلال در چندین آزمون معیار عملکرد عالی دارد و از اکثر مدلهای متن باز پیشی گرفته و در برخی وظایف رقابت قابل توجهی با مدلهای اختصاصی نشان میدهد."
},
"Qwen/Qwen2-VL-72B-Instruct": {
"description": "Qwen2-VL جدیدترین نسخه از مدل Qwen-VL است که در آزمونهای معیار درک بصری به پیشرفتهترین عملکرد دست یافته است."
},
"Qwen/Qwen2.5-14B-Instruct": {
"description": "Qwen2.5 یک سری جدید از مدلهای زبانی بزرگ است که با هدف بهینهسازی پردازش وظایف دستوری طراحی شده است."
},
"Qwen/Qwen2.5-32B-Instruct": {
"description": "Qwen2.5 یک سری جدید از مدلهای زبانی بزرگ است که با هدف بهینهسازی پردازش وظایف دستوری طراحی شده است."
},
"Qwen/Qwen2.5-72B-Instruct": {
"description": "مدل زبانی بزرگ توسعه یافته توسط تیم علیبابا، تونگyi چنوِن."
},
"Qwen/Qwen2.5-72B-Instruct-128K": {
"description": "Qwen2.5 یک سری جدید از مدلهای زبان بزرگ است که دارای تواناییهای قویتر در درک و تولید میباشد."
},
"Qwen/Qwen2.5-72B-Instruct-Turbo": {
"description": "Qwen2.5 یک سری جدید از مدلهای زبانی بزرگ است که با هدف بهینهسازی پردازش وظایف دستوری طراحی شده است."
},
"Qwen/Qwen2.5-7B-Instruct": {
"description": "Qwen2.5 یک سری جدید از مدلهای زبان بزرگ است که با هدف بهینهسازی پردازش وظایف دستوری طراحی شده است."
},
"Qwen/Qwen2.5-7B-Instruct-Turbo": {
"description": "Qwen2.5 یک سری جدید از مدلهای زبانی بزرگ است که با هدف بهینهسازی پردازش وظایف دستوری طراحی شده است."
},
"Qwen/Qwen2.5-Coder-32B-Instruct": {
"description": "Qwen2.5-Coder بر نوشتن کد تمرکز دارد."
},
"Qwen/Qwen2.5-Coder-7B-Instruct": {
"description": "Qwen2.5-Coder-7B-Instruct جدیدترین نسخه از سری مدلهای زبانی بزرگ خاص کد است که توسط Alibaba Cloud منتشر شده است. این مدل بر اساس Qwen2.5 و با آموزش 5.5 تریلیون توکن، توانایی تولید کد، استدلال و اصلاح را به طور قابل توجهی افزایش داده است. این مدل نه تنها توانایی کدنویسی را تقویت کرده بلکه مزایای ریاضی و عمومی را نیز حفظ کرده است. این مدل پایهای جامعتر برای کاربردهای عملی مانند عاملهای کد فراهم میکند."
},
"Qwen/Qwen2.5-VL-32B-Instruct": {
"description": "Qwen2.5-VL-32B-Instruct یک مدل چند حالتی از تیم Thousand Questions است که بخشی از سری Qwen2.5-VL میباشد. این مدل علاوه بر توانایی شناسایی اشیاء رایج، قادر به تحلیل متن، نمودار، نمادها، شکلها و طرحبندیهای درون تصاویر است. این مدل به عنوان یک هوش مصنوعی بصری عمل میکند، قادر به استدلال و کنترل ابزارها به صورت پویا است و توانایی استفاده از کامپیوتر و موبایل را دارد. علاوه بر این، این مدل میتواند اشیاء درون تصویر را با دقت بالا مکانیابی کند و برای فاکتورها، جداول و غیره خروجیهای ساختاریجادی تولید کند. نسبت به نسخه قبلی Qwen2-VL، این نسخه در تواناییهای ریاضی و حل مسئله از طریق یادگیری تقویتی پیشرفت کرده است و سبک پاسخگویی آن نیز بیشتر با ترجیحات انسانها هماهنگ است."
},
"Qwen/Qwen2.5-VL-72B-Instruct": {
"description": "Qwen2.5-VL مدل زبان و تصویر از سری Qwen2.5 است. این مدل در جنبههای مختلف بهبود یافته است: دارای توانایی تحلیل بصری قویتر، قادر به تشخیص اشیاء رایج، تحلیل متن، نمودارها و طرحبندی است؛ به عنوان یک عامل بصری میتواند استدلال کند و به طور پویا ابزارها را هدایت کند؛ از توانایی درک ویدیوهای طولانیتر از یک ساعت و شناسایی رویدادهای کلیدی برخوردار است؛ قادر به مکانیابی دقیق اشیاء در تصویر با تولید جعبههای مرزی یا نقاط است؛ و توانایی تولید خروجیهای ساختاریافته، به ویژه برای دادههای اسکن شده مانند فاکتورها و جداول را دارد."
},
"Qwen/Qwen3-14B": {
"description": "Qwen3 یک مدل بزرگ جدید با تواناییهای بهبود یافته است که در استدلال، عمومی، نمایندگی و چند زبانی به سطح پیشرفته صنعت دست یافته و از تغییر حالت تفکر پشتیبانی میکند."
},
"Qwen/Qwen3-235B-A22B": {
"description": "Qwen3 یک مدل بزرگ جدید با تواناییهای بهبود یافته است که در استدلال، عمومی، نمایندگی و چند زبانی به سطح پیشرفته صنعت دست یافته و از تغییر حالت تفکر پشتیبانی میکند."
},
"Qwen/Qwen3-30B-A3B": {
"description": "Qwen3 یک مدل بزرگ جدید با تواناییهای بهبود یافته است که در استدلال، عمومی، نمایندگی و چند زبانی به سطح پیشرفته صنعت دست یافته و از تغییر حالت تفکر پشتیبانی میکند."
},
"Qwen/Qwen3-32B": {
"description": "Qwen3 یک مدل بزرگ جدید با تواناییهای بهبود یافته است که در استدلال، عمومی، نمایندگی و چند زبانی به سطح پیشرفته صنعت دست یافته و از تغییر حالت تفکر پشتیبانی میکند."
},
"Qwen/Qwen3-8B": {
"description": "Qwen3 یک مدل بزرگ جدید با تواناییهای بهبود یافته است که در استدلال، عمومی، نمایندگی و چند زبانی به سطح پیشرفته صنعت دست یافته و از تغییر حالت تفکر پشتیبانی میکند."
},
"Qwen2-72B-Instruct": {
"description": "Qwen2 جدیدترین سری مدلهای Qwen است که از 128k زمینه پشتیبانی میکند. در مقایسه با بهترین مدلهای متنباز فعلی، Qwen2-72B در درک زبان طبیعی، دانش، کد، ریاضی و چندزبانگی به طور قابل توجهی از مدلهای پیشرو فعلی فراتر رفته است."
},
"Qwen2-7B-Instruct": {
"description": "Qwen2 جدیدترین سری مدلهای Qwen است که میتواند از مدلهای متنباز با مقیاس مشابه و حتی بزرگتر فراتر رود. Qwen2 7B در چندین ارزیابی برتری قابل توجهی به دست آورده است، به ویژه در درک کد و زبان چینی."
},
"Qwen2-VL-72B": {
"description": "Qwen2-VL-72B یک مدل زبان بصری قدرتمند است که از پردازش چندرسانهای تصویر و متن پشتیبانی میکند و میتواند محتوای تصویر را به دقت شناسایی کرده و توصیف یا پاسخهای مرتبط تولید کند."
},
"Qwen2.5-14B-Instruct": {
"description": "Qwen2.5-14B-Instruct یک مدل زبان بزرگ با 140 میلیارد پارامتر است که عملکرد عالی دارد و بهینهسازی شده برای سناریوهای چینی و چند زبانه، از کاربردهایی مانند پرسش و پاسخ هوشمند و تولید محتوا پشتیبانی میکند."
},
"Qwen2.5-32B-Instruct": {
"description": "Qwen2.5-32B-Instruct یک مدل زبان بزرگ با 320 میلیارد پارامتر است که عملکرد متوازن دارد و بهینهسازی شده برای سناریوهای چینی و چند زبانه، از کاربردهایی مانند پرسش و پاسخ هوشمند و تولید محتوا پشتیبانی میکند."
},
"Qwen2.5-72B-Instruct": {
"description": "Qwen2.5-72B-Instruct از 16k زمینه پشتیبانی میکند و قادر به تولید متنهای طولانی بیش از 8K است. این مدل از تماسهای تابع و تعامل بدون درز با سیستمهای خارجی پشتیبانی میکند و به طور قابل توجهی انعطافپذیری و گسترشپذیری را افزایش میدهد. دانش مدل به وضوح افزایش یافته و تواناییهای کدنویسی و ریاضی به طور چشمگیری بهبود یافته است و از بیش از 29 زبان پشتیبانی میکند."
},
"Qwen2.5-7B-Instruct": {
"description": "Qwen2.5-7B-Instruct یک مدل زبان بزرگ با 70 میلیارد پارامتر است که از تماسهای تابع و تعامل بینقص با سیستمهای خارجی پشتیبانی میکند و به طور قابل توجهی انعطافپذیری و مقیاسپذیری را افزایش میدهد. این مدل بهینهسازی شده برای سناریوهای چینی و چند زبانه، از کاربردهایی مانند پرسش و پاسخ هوشمند و تولید محتوا پشتیبانی میکند."
},
"Qwen2.5-Coder-14B-Instruct": {
"description": "Qwen2.5-Coder-14B-Instruct یک مدل دستور برنامهنویسی مبتنی بر پیشآموزش وسیع است که دارای تواناییهای قوی در درک و تولید کد است و میتواند به طور مؤثر به انواع وظایف برنامهنویسی رسیدگی کند، به ویژه برای نوشتن کد هوشمند، تولید اسکریپتهای خودکار و پاسخ به مسائل برنامهنویسی مناسب است."
},
"Qwen2.5-Coder-32B-Instruct": {
"description": "Qwen2.5-Coder-32B-Instruct یک مدل زبان بزرگ است که به طور خاص برای تولید کد، درک کد و سناریوهای توسعه کارآمد طراحی شده است و از مقیاس 32B پارامتر پیشرفته در صنعت بهره میبرد و میتواند نیازهای متنوع برنامهنویسی را برآورده کند."
},
"SenseChat": {
"description": "نسخه پایه مدل (V4)، طول متن ۴K، با تواناییهای عمومی قوی"
},
"SenseChat-128K": {
"description": "نسخه پایه مدل (V4)، با طول زمینه ۱۲۸K، در وظایف درک و تولید متون طولانی عملکرد برجستهای دارد"
},
"SenseChat-32K": {
"description": "مدل نسخه پایه (V4)، طول زمینه 32K، قابل استفاده در انواع سناریوها"
},
"SenseChat-5": {
"description": "جدیدترین نسخه مدل (V5.5)، با طول زمینه 128K، بهبود قابل توجه در زمینههای استدلال ریاضی، مکالمه انگلیسی، پیروی از دستورات و درک متون طولانی، قابل مقایسه با GPT-4o"
},
"SenseChat-5-1202": {
"description": "نسخه جدید مبتنی بر V5.5 که نسبت به نسخه قبلی در تواناییهای پایهای زبانهای چینی و انگلیسی، گفتگو، دانش علوم پایه، دانش علوم انسانی، نوشتار، منطق ریاضی و کنترل تعداد کلمات بهبود قابل توجهی داشته است."
},
"SenseChat-5-Cantonese": {
"description": "طول متن 32K، در درک مکالمات به زبان کانتونی از GPT-4 پیشی میگیرد و در زمینههای مختلفی مانند دانش، استدلال، ریاضیات و برنامهنویسی با GPT-4 Turbo قابل مقایسه است."
},
"SenseChat-5-beta": {
"description": "برخی از عملکردها بهتر از SenseCat-5-1202 است"
},
"SenseChat-Character": {
"description": "نسخه استاندارد مدل، طول متن ۸۰۰۰ کاراکتر، سرعت پاسخدهی بالا"
},
"SenseChat-Character-Pro": {
"description": "مدل پیشرفته، طول متن 32K، بهبود کامل قابلیتها، پشتیبانی از مکالمه به زبانهای چینی/انگلیسی"
},
"SenseChat-Turbo": {
"description": "مناسب برای پرسش و پاسخ سریع و تنظیم دقیق مدل"
},
"SenseChat-Turbo-1202": {
"description": "این نسخه جدید مدل سبک است که به بیش از ۹۰٪ تواناییهای مدل کامل دست یافته و هزینه استنتاج را به طور قابل توجهی کاهش میدهد."
},
"SenseChat-Vision": {
"description": "مدل جدیدترین نسخه (V5.5) است که از ورودی چند تصویر پشتیبانی میکند و به طور جامع به بهینهسازی تواناییهای پایه مدل پرداخته و در شناسایی ویژگیهای اشیاء، روابط فضایی، شناسایی رویدادهای حرکتی، درک صحنه، شناسایی احساسات، استدلال منطقی و درک و تولید متن بهبودهای قابل توجهی داشته است."
},
"SenseNova-V6-Pro": {
"description": "تحقق یکپارچگی بومی قابلیتهای تصویر، متن و ویدیو، عبور از محدودیتهای سنتی چندمدلی، و کسب دو قهرمانی در ارزیابیهای OpenCompass و SuperCLUE."
},
"SenseNova-V6-Reasoner": {
"description": "توجه به استدلال عمیق بصری و زبانی، تحقق تفکر کند و استدلال عمیق، ارائه فرآیند کامل زنجیره تفکر."
},
"SenseNova-V6-Turbo": {
"description": "تحقق یکپارچگی بومی قابلیتهای تصویر، متن و ویدیو، عبور از محدودیتهای سنتی چندمدلی، پیشی گرفتن در ابعاد اصلی مانند تواناییهای چندمدلی و زبانی، و در چندین ارزیابی در سطح اول داخلی و خارجی قرار گرفتن."
},
"Skylark2-lite-8k": {
"description": "مدل نسل دوم Skylark، مدل Skylark2-lite دارای سرعت پاسخدهی بالایی است و برای سناریوهایی که نیاز به زمان واقعی بالایی دارند و حساس به هزینه هستند و نیاز به دقت مدلی کمتری دارند مناسب است. طول پنجره متنی این مدل 8k است."
},
"Skylark2-pro-32k": {
"description": "مدل نسل دوم Skylark، مدل Skylark2-pro دارای دقت بالای مدلی است و برای سناریوهای پیچیدهتر تولید متن مانند تولید متن تخصصی، نوشتن رمان، ترجمه باکیفیت و غیره مناسب است. طول پنجره متنی این مدل 32k است."
},
"Skylark2-pro-4k": {
"description": "مدل نسل دوم Skylark، مدل Skylark2-pro دارای دقت بالای مدلی است و برای سناریوهای پیچیدهتر تولید متن مانند تولید متن تخصصی، نوشتن رمان، ترجمه باکیفیت و غیره مناسب است. طول پنجره متنی این مدل 4k است."
},
"Skylark2-pro-character-4k": {
"description": "مدل نسل دوم Skylark، مدل Skylark2-pro-character دارای قابلیتهای برجسته بازی نقش و چت است و میتواند بهطور طبیعی طبق خواستههای کاربر مختلف نقشها را ایفا کند. این مدل برای ساخت رباتهای چت، دستیاران مجازی و خدمات مشتری آنلاین مناسب است و دارای سرعت پاسخدهی بالایی است."
},
"Skylark2-pro-turbo-8k": {
"description": "مدل نسل دوم Skylark، مدل Skylark2-pro-turbo-8k دارای استنتاج سریعتر و هزینه کمتر است و طول پنجره متنی آن 8k است."
},
"THUDM/GLM-4-32B-0414": {
"description": "GLM-4-32B-0414 نسل جدید مدلهای متنباز سری GLM است که دارای 320 میلیارد پارامتر است. عملکرد این مدل میتواند با سری GPT OpenAI و سری V3/R1 DeepSeek مقایسه شود."
},
"THUDM/GLM-4-9B-0414": {
"description": "GLM-4-9B-0414 یک مدل کوچک از سری GLM است که دارای 90 میلیارد پارامتر است. این مدل ویژگیهای فنی سری GLM-4-32B را به ارث میبرد، اما گزینههای استقرار سبکتری را ارائه میدهد. با وجود اندازه کوچک، GLM-4-9B-0414 در تولید کد، طراحی وب، تولید گرافیک SVG و نوشتن مبتنی بر جستجو عملکرد فوقالعادهای دارد."
},
"THUDM/GLM-Z1-32B-0414": {
"description": "GLM-Z1-32B-0414 یک مدل استدلال با توانایی تفکر عمیق است. این مدل بر اساس GLM-4-32B-0414 از طریق راهاندازی سرد و یادگیری تقویتی توسعه یافته و در وظایف ریاضی، کدنویسی و منطقی آموزش بیشتری دیده است. نسبت به مدل پایه، GLM-Z1-32B-0414 تواناییهای ریاضی و حل مسائل پیچیده را بهطور قابل توجهی افزایش داده است."
},
"THUDM/GLM-Z1-9B-0414": {
"description": "GLM-Z1-9B-0414 یک مدل کوچک از سری GLM است که تنها 90 میلیارد پارامتر دارد، اما در عین حال تواناییهای شگفتانگیزی را در کنار حفظ سنت متنباز نشان میدهد. با وجود اندازه کوچک، این مدل در استدلال ریاضی و وظایف عمومی عملکرد عالی دارد و عملکرد کلی آن در میان مدلهای متنباز با اندازه مشابه در سطح بالایی قرار دارد."
},
"THUDM/GLM-Z1-Rumination-32B-0414": {
"description": "GLM-Z1-Rumination-32B-0414 یک مدل استدلال عمیق با توانایی تفکر است (که با Deep Research OpenAI مقایسه میشود). برخلاف مدلهای تفکر عمیق معمولی، این مدل از تفکر عمیق طولانیمدت برای حل مسائل باز و پیچیده استفاده میکند."
},
"THUDM/glm-4-9b-chat": {
"description": "نسخه منبع باز GLM-4 9B، تجربه گفتگوی بهینهشده برای برنامههای مکالمه را ارائه میدهد."
},
"Tongyi-Zhiwen/QwenLong-L1-32B": {
"description": "QwenLong-L1-32B نخستین مدل بزرگ استدلال با زمینه طولانی است که با یادگیری تقویتی آموزش دیده و به طور خاص برای وظایف استدلال متون طولانی بهینه شده است. این مدل با چارچوب یادگیری تقویتی توسعه تدریجی زمینه، انتقال پایدار از زمینه کوتاه به بلند را محقق ساخته است. در هفت آزمون معیار پرسش و پاسخ اسناد طولانی، QwenLong-L1-32B از مدلهای پیشرو مانند OpenAI-o3-mini و Qwen3-235B-A22B پیشی گرفته و عملکردی مشابه Claude-3.7-Sonnet-Thinking دارد. این مدل در استدلال ریاضی، استدلال منطقی و استدلال چندمرحلهای مهارت ویژهای دارد."
},
"Yi-34B-Chat": {
"description": "Yi-1.5-34B با حفظ تواناییهای زبان عمومی عالی مدلهای قبلی خود، از طریق آموزش افزایشی 500 میلیارد توکن با کیفیت بالا، به طور قابل توجهی تواناییهای منطقی ریاضی و کدنویسی را افزایش داده است."
},
"abab5.5-chat": {
"description": "برای سناریوهای بهرهوری طراحی شده است، از پردازش وظایف پیچیده و تولید متن کارآمد پشتیبانی میکند و برای کاربردهای حرفهای مناسب است."
},
"abab5.5s-chat": {
"description": "طراحی شده برای سناریوهای مکالمه با شخصیتهای چینی، ارائه توانایی تولید مکالمات با کیفیت بالا به زبان چینی، مناسب برای انواع کاربردها."
},
"abab6.5g-chat": {
"description": "طراحی شده برای مکالمات چندزبانه با شخصیتهای مختلف، پشتیبانی از تولید مکالمات با کیفیت بالا به زبان انگلیسی و سایر زبانها."
},
"abab6.5s-chat": {
"description": "مناسب برای طیف گستردهای از وظایف پردازش زبان طبیعی، از جمله تولید متن، سیستمهای گفتگو و غیره."
},
"abab6.5t-chat": {
"description": "بهینهسازی شده برای سناریوهای مکالمه با شخصیتهای چینی، ارائه توانایی تولید مکالمات روان و مطابق با عادات بیانی چینی."
},
"accounts/fireworks/models/deepseek-r1": {
"description": "DeepSeek-R1 یک مدل زبان بزرگ پیشرفته است که با یادگیری تقویتی و بهینهسازی دادههای راهاندازی سرد، عملکرد استدلال، ریاضیات و برنامهنویسی فوقالعادهای دارد."
},
"accounts/fireworks/models/deepseek-v3": {
"description": "مدل زبان قدرتمند Mixture-of-Experts (MoE) ارائه شده توسط Deepseek، با مجموع پارامترها به میزان 671B و فعالسازی 37B پارامتر برای هر نشانه."
},
"accounts/fireworks/models/llama-v3-70b-instruct": {
"description": "مدل Llama 3 70B دستورالعمل، بهطور ویژه برای مکالمات چندزبانه و درک زبان طبیعی بهینهسازی شده است و عملکردی بهتر از اکثر مدلهای رقیب دارد."
},
"accounts/fireworks/models/llama-v3-8b-instruct": {
"description": "مدل Llama 3 8B دستورالعمل، بهینهسازی شده برای مکالمه و وظایف چندزبانه، با عملکرد برجسته و کارآمد."
},
"accounts/fireworks/models/llama-v3-8b-instruct-hf": {
"description": "مدل Llama 3 8B دستورالعمل (نسخه HF)، با نتایج پیادهسازی رسمی سازگار است و از سازگاری بالا و قابلیت همکاری بین پلتفرمی برخوردار است."
},
"accounts/fireworks/models/llama-v3p1-405b-instruct": {
"description": "مدل Llama 3.1 405B دستورالعمل، با پارامترهای بسیار بزرگ، مناسب برای وظایف پیچیده و سناریوهای با بار سنگین در پیروی از دستورالعملها."
},
"accounts/fireworks/models/llama-v3p1-70b-instruct": {
"description": "مدل Llama 3.1 70B دستورالعمل، با توانایی برجسته در درک و تولید زبان طبیعی، انتخابی ایدهآل برای وظایف مکالمه و تحلیل است."
},
"accounts/fireworks/models/llama-v3p1-8b-instruct": {
"description": "مدل Llama 3.1 8B دستورالعمل، بهینهسازی شده برای مکالمات چندزبانه، قادر به پیشی گرفتن از اکثر مدلهای متنباز و بسته در معیارهای صنعتی رایج."
},
"accounts/fireworks/models/llama-v3p2-11b-vision-instruct": {
"description": "مدل استنتاج تصویر با ۱۱ میلیارد پارامتر از Meta که برای دستورالعملها تنظیم شده است. این مدل برای تشخیص بصری، استنتاج تصویر، توصیف تصویر و پاسخ به سوالات عمومی درباره تصاویر بهینهسازی شده است. این مدل قادر به درک دادههای بصری مانند نمودارها و گرافها است و با تولید توضیحات متنی از جزئیات تصاویر، فاصله بین دیداری و زبانی را پر میکند."
},
"accounts/fireworks/models/llama-v3p2-3b-instruct": {
"description": "مدل Llama 3.2 3B دستورالعمل یک مدل چندزبانه سبک است که توسط Meta ارائه شده است. این مدل با هدف بهبود کارایی طراحی شده و در مقایسه با مدلهای بزرگتر، بهبودهای قابل توجهی در تأخیر و هزینه ارائه میدهد. نمونههای کاربردی این مدل شامل بازنویسی پرسشها و دستورات و همچنین کمک به نوشتن است."
},
"accounts/fireworks/models/llama-v3p2-90b-vision-instruct": {
"description": "مدل استنتاج تصویر با 90 میلیارد پارامتر از Meta که برای دستورالعملها تنظیم شده است. این مدل برای تشخیص بصری، استنتاج تصویر، توصیف تصویر و پاسخ به سوالات عمومی در مورد تصاویر بهینهسازی شده است. این مدل قادر است دادههای بصری مانند نمودارها و گرافها را درک کند و با تولید توضیحات متنی از جزئیات تصویر، فاصله بین دیداری و زبانی را پر کند."
},
"accounts/fireworks/models/llama-v3p3-70b-instruct": {
"description": "مدل Llama 3.3 70B Instruct نسخه بهروزرسانی شده Llama 3.1 70B در دسامبر است. این مدل بر اساس Llama 3.1 70B (منتشر شده در ژوئیه 2024) بهبود یافته و قابلیتهای فراخوانی ابزار، پشتیبانی از متن چند زبانه، ریاضیات و برنامهنویسی را تقویت کرده است. این مدل در استدلال، ریاضیات و پیروی از دستورات به سطح پیشرفتهای در صنعت رسیده و میتواند عملکردی مشابه با 3.1 405B ارائه دهد، در حالی که از نظر سرعت و هزینه مزایای قابل توجهی دارد."
},
"accounts/fireworks/models/mistral-small-24b-instruct-2501": {
"description": "مدل 24B با پارامترهایی که قابلیتهای پیشرفتهای مشابه مدلهای بزرگتر را داراست."
},
"accounts/fireworks/models/mixtral-8x22b-instruct": {
"description": "مدل Mixtral MoE 8x22B دستوری، با پارامترهای بزرگ و معماری چندین متخصص، پشتیبانی کامل از پردازش کارآمد وظایف پیچیده."
},
"accounts/fireworks/models/mixtral-8x7b-instruct": {
"description": "مدل Mixtral MoE 8x7B، معماری چندین متخصص برای پیروی و اجرای دستورات بهصورت کارآمد ارائه میدهد."
},
"accounts/fireworks/models/mythomax-l2-13b": {
"description": "مدل MythoMax L2 13B، با استفاده از تکنیکهای ترکیبی نوآورانه، در روایت داستان و نقشآفرینی مهارت دارد."
},
"accounts/fireworks/models/phi-3-vision-128k-instruct": {
"description": "Phi-3-Vision-128K-Instruct یک مدل چندوجهی پیشرفته و سبک است که بر اساس مجموعه دادههایی شامل دادههای مصنوعی و وبسایتهای عمومی فیلتر شده ساخته شده است. این مدل بر دادههای بسیار باکیفیت و متمرکز بر استدلال، که شامل متن و تصویر هستند، تمرکز دارد. این مدل بخشی از سری مدلهای Phi-3 است و نسخه چندوجهی آن از طول زمینه 128K (بر حسب توکن) پشتیبانی میکند. این مدل از یک فرآیند تقویت دقیق عبور کرده است که ترکیبی از تنظیم دقیق تحت نظارت و بهینهسازی مستقیم ترجیحات را شامل میشود تا از پیروی دقیق از دستورات و اقدامات امنیتی قوی اطمینان حاصل شود."
},
"accounts/fireworks/models/qwen-qwq-32b-preview": {
"description": "مدل QwQ یک مدل تحقیقاتی تجربی است که توسط تیم Qwen توسعه یافته و بر تقویت توانایی استدلال AI تمرکز دارد."
},
"accounts/fireworks/models/qwen2-vl-72b-instruct": {
"description": "نسخه 72B مدل Qwen-VL نتیجه جدیدترین بهروزرسانیهای علیبابا است که نمایانگر نوآوریهای نزدیک به یک سال اخیر است."
},
"accounts/fireworks/models/qwen2p5-72b-instruct": {
"description": "Qwen2.5 مجموعهای از مدلهای زبانی است که تنها شامل رمزگشاها میباشد و توسط تیم Qwen علیبابا کلود توسعه یافته است. این مدلها در اندازههای مختلف از جمله 0.5B، 1.5B، 3B، 7B، 14B، 32B و 72B ارائه میشوند و دارای دو نوع پایه (base) و دستوری (instruct) هستند."
},
"accounts/fireworks/models/qwen2p5-coder-32b-instruct": {
"description": "Qwen2.5 Coder 32B Instruct جدیدترین نسخه از سری مدلهای زبانی بزرگ خاص کد است که توسط Alibaba Cloud منتشر شده است. این مدل بر اساس Qwen2.5 و با آموزش 5.5 تریلیون توکن، توانایی تولید کد، استدلال و اصلاح را به طور قابل توجهی افزایش داده است. این مدل نه تنها توانایی کدنویسی را تقویت کرده بلکه مزایای ریاضی و عمومی را نیز حفظ کرده است. این مدل پایهای جامعتر برای کاربردهای عملی مانند عاملهای کد فراهم میکند."
},
"accounts/yi-01-ai/models/yi-large": {
"description": "مدل Yi-Large، با توانایی برجسته در پردازش چندزبانه، مناسب برای انواع وظایف تولید و درک زبان."
},
"ai21-jamba-1.5-large": {
"description": "یک مدل چندزبانه با 398 میلیارد پارامتر (94 میلیارد فعال) که پنجره متنی طولانی 256 هزار توکن، فراخوانی توابع، خروجی ساختاریافته و تولید مبتنی بر واقعیت را ارائه میدهد."
},
"ai21-jamba-1.5-mini": {
"description": "یک مدل چندزبانه با 52 میلیارد پارامتر (12 میلیارد فعال) که پنجره متنی طولانی 256K، فراخوانی توابع، خروجی ساختاریافته و تولید مبتنی بر واقعیت را ارائه میدهد."
},
"ai21-labs/AI21-Jamba-1.5-Large": {
"description": "یک مدل چندزبانه با ۳۹۸ میلیارد پارامتر (۹۴ میلیارد فعال) که پنجره زمینه ۲۵۶ هزار توکنی، فراخوانی توابع، خروجی ساختاریافته و تولید مبتنی بر واقعیت را ارائه میدهد."
},
"ai21-labs/AI21-Jamba-1.5-Mini": {
"description": "یک مدل چندزبانه با ۵۲ میلیارد پارامتر (۱۲ میلیارد فعال) که پنجره زمینه ۲۵۶ هزار توکنی، فراخوانی توابع، خروجی ساختاریافته و تولید مبتنی بر واقعیت را ارائه میدهد."
},
"anthropic.claude-3-5-sonnet-20240620-v1:0": {
"description": "Claude 3.5 Sonnet استانداردهای صنعت را ارتقا داده است، عملکردی بهتر از مدلهای رقیب و Claude 3 Opus دارد، در ارزیابیهای گسترده به خوبی عمل کرده و در عین حال سرعت و هزینه مدلهای سطح متوسط ما را حفظ میکند."
},
"anthropic.claude-3-5-sonnet-20241022-v2:0": {
"description": "Claude 3.5 Sonnet استانداردهای صنعت را ارتقا داده است، عملکردی بهتر از مدلهای رقیب و Claude 3 Opus دارد، در ارزیابیهای گسترده به خوبی عمل کرده و در عین حال سرعت و هزینه مدلهای سطح متوسط ما را حفظ میکند."
},
"anthropic.claude-3-haiku-20240307-v1:0": {
"description": "Claude 3 Haiku سریعترین و فشردهترین مدل Anthropic است که پاسخهای تقریباً فوری ارائه میدهد. این مدل میتواند به سرعت به پرسشها و درخواستهای ساده پاسخ دهد. مشتریان قادر خواهند بود تجربههای هوش مصنوعی یکپارچهای را که تعاملات انسانی را تقلید میکند، ایجاد کنند. Claude 3 Haiku میتواند تصاویر را پردازش کرده و خروجی متنی ارائه دهد و دارای پنجره متنی 200K است."
},
"anthropic.claude-3-opus-20240229-v1:0": {
"description": "Claude 3 Opus قدرتمندترین مدل هوش مصنوعی Anthropic است که عملکرد پیشرفتهای در وظایف بسیار پیچیده دارد. این مدل میتواند با درخواستهای باز و سناریوهای ناآشنا کار کند و دارای روانی و درک شبهانسانی برجستهای است. Claude 3 Opus مرزهای جدیدی از امکانات هوش مصنوعی مولد را به نمایش میگذارد. Claude 3 Opus میتواند تصاویر را پردازش کرده و خروجی متنی ارائه دهد و دارای پنجره متنی 200K است."
},
"anthropic.claude-3-sonnet-20240229-v1:0": {
"description": "Claude 3 Sonnet از Anthropic به تعادلی ایدهآل بین هوش و سرعت دست یافته است—بهویژه برای بارهای کاری سازمانی مناسب است. این مدل با قیمتی کمتر از رقبا، بیشترین بهرهوری را ارائه میدهد و بهعنوان یک ماشین اصلی قابل اعتماد و با دوام بالا طراحی شده است که برای استقرارهای مقیاسپذیر AI مناسب است. Claude 3 Sonnet میتواند تصاویر را پردازش کرده و خروجی متنی ارائه دهد و دارای پنجره متنی 200K است."
},
"anthropic.claude-instant-v1": {
"description": "مدلی سریع، اقتصادی و همچنان بسیار توانمند که میتواند طیف وسیعی از وظایف از جمله مکالمات روزمره، تحلیل متن، خلاصهسازی و پاسخ به سوالات اسناد را انجام دهد."
},
"anthropic.claude-v2": {
"description": "Anthropic مدلی است که در انجام وظایف گستردهای از مکالمات پیچیده و تولید محتوای خلاقانه تا پیروی دقیق از دستورات، توانایی بالایی از خود نشان میدهد."
},
"anthropic.claude-v2:1": {
"description": "نسخه بهروزرسانی شده Claude 2، با دو برابر پنجره متنی و بهبود در قابلیت اطمینان، کاهش توهمات و دقت مبتنی بر شواهد در اسناد طولانی و زمینههای RAG."
},
"anthropic/claude-3-haiku": {
"description": "Claude 3 Haiku سریعترین و فشردهترین مدل Anthropic است که برای ارائه پاس