@lobehub/chat
Version:
Lobe Chat - an open-source, high-performance chatbot framework that supports speech synthesis, multimodal, and extensible Function Call plugin system. Supports one-click free deployment of your private ChatGPT/LLM web application.
510 lines • 367 kB
JSON
{
"01-ai/yi-1.5-34b-chat": {
"description": "Zero One Everything، جدیدترین مدل متن باز تنظیم شده با 34 میلیارد پارامتر، که تنظیمات آن از چندین سناریوی گفتگویی پشتیبانی میکند و دادههای آموزشی با کیفیت بالا را برای همراستایی با ترجیحات انسانی فراهم میکند."
},
"01-ai/yi-1.5-9b-chat": {
"description": "Zero One Everything، جدیدترین مدل متن باز تنظیم شده با 9 میلیارد پارامتر، که تنظیمات آن از چندین سناریوی گفتگویی پشتیبانی میکند و دادههای آموزشی با کیفیت بالا را برای همراستایی با ترجیحات انسانی فراهم میکند."
},
"360/deepseek-r1": {
"description": "مدل DeepSeek-R1 نسخه 360، که در مرحله پس از آموزش بهطور گستردهای از تکنیکهای یادگیری تقویتی استفاده کرده و توانایی استدلال مدل را بهطور قابل توجهی افزایش داده است. در وظایف ریاضی، کدنویسی و استدلال زبان طبیعی، عملکردی مشابه نسخه رسمی OpenAI o1 دارد."
},
"360gpt-pro": {
"description": "360GPT Pro به عنوان یکی از اعضای مهم سری مدلهای 360 AI، با توانایی پردازش متون بهصورت کارآمد، نیازهای متنوع در زمینههای مختلف کاربردهای زبان طبیعی را برآورده میکند و از قابلیتهایی مانند درک متون طولانی و مکالمات چندمرحلهای پشتیبانی میکند."
},
"360gpt-pro-trans": {
"description": "مدل مخصوص ترجمه، بهطور عمیق بهینهسازی شده و دارای عملکرد پیشرفته در ترجمه است."
},
"360gpt-turbo": {
"description": "360GPT Turbo تواناییهای محاسباتی و مکالمهای قدرتمندی ارائه میدهد و دارای کارایی بالایی در درک و تولید معنا است. این یک راهحل ایدهآل برای دستیار هوشمند برای شرکتها و توسعهدهندگان است."
},
"360gpt-turbo-responsibility-8k": {
"description": "360GPT Turbo Responsibility 8K بر امنیت معنایی و مسئولیتپذیری تأکید دارد و بهطور ویژه برای سناریوهایی طراحی شده است که نیاز بالایی به امنیت محتوا دارند، تا دقت و پایداری تجربه کاربری را تضمین کند."
},
"360gpt2-o1": {
"description": "360gpt2-o1 از جستجوی درخت برای ساخت زنجیرههای تفکر استفاده میکند و مکانیزم بازتاب را معرفی کرده است و با استفاده از یادگیری تقویتی آموزش دیده است، این مدل توانایی خودبازتابی و اصلاح خطا را دارد."
},
"360gpt2-pro": {
"description": "360GPT2 Pro مدل پیشرفته پردازش زبان طبیعی است که توسط شرکت 360 ارائه شده است. این مدل دارای تواناییهای برجستهای در تولید و درک متن است و به ویژه در زمینه تولید و خلاقیت عملکرد فوقالعادهای دارد. همچنین قادر به انجام وظایف پیچیده تبدیل زبان و ایفای نقش میباشد."
},
"360zhinao2-o1": {
"description": "مدل 360zhinao2-o1 با استفاده از جستجوی درختی زنجیره تفکر را ایجاد کرده و مکانیزم بازتاب را معرفی کرده است و با استفاده از یادگیری تقویتی آموزش دیده است، این مدل توانایی خودبازتابی و اصلاح خطا را دارد."
},
"4.0Ultra": {
"description": "Spark Ultra قدرتمندترین نسخه از سری مدلهای بزرگ Spark است که با ارتقاء مسیر جستجوی متصل به شبکه، توانایی درک و خلاصهسازی محتوای متنی را بهبود میبخشد. این یک راهحل جامع برای افزایش بهرهوری در محیط کار و پاسخگویی دقیق به نیازها است و به عنوان یک محصول هوشمند پیشرو در صنعت شناخته میشود."
},
"AnimeSharp": {
"description": "AnimeSharp (که با نام \"4x‑AnimeSharp\" نیز شناخته میشود) یک مدل ابررزولوشن متنباز است که توسط Kim2091 بر اساس معماری ESRGAN توسعه یافته است و بر بزرگنمایی و تیزکردن تصاویر با سبک انیمه تمرکز دارد. این مدل در فوریه ۲۰۲۲ از \"4x-TextSharpV1\" تغییر نام داد و در ابتدا برای تصاویر متنی نیز کاربرد داشت اما عملکرد آن به طور قابل توجهی برای محتوای انیمه بهینه شده است."
},
"Baichuan2-Turbo": {
"description": "با استفاده از فناوری تقویت جستجو، مدل بزرگ را به دانش حوزهای و دانش کل وب متصل میکند. از آپلود انواع اسناد مانند PDF، Word و همچنین وارد کردن آدرسهای وب پشتیبانی میکند. اطلاعات بهموقع و جامع دریافت میشود و نتایج خروجی دقیق و حرفهای هستند."
},
"Baichuan3-Turbo": {
"description": "بهینهسازی شده برای سناریوهای پرتکرار سازمانی، با بهبود قابل توجه و نسبت عملکرد به هزینه بالا. در مقایسه با مدل Baichuan2، تولید محتوا ۲۰٪ بهبود یافته، پاسخ به سوالات ۱۷٪ بهتر شده و توانایی نقشآفرینی ۴۰٪ افزایش یافته است. عملکرد کلی بهتر از GPT3.5 است."
},
"Baichuan3-Turbo-128k": {
"description": "دارای پنجره متنی فوقالعاده طولانی ۱۲۸K، بهینهسازی شده برای سناریوهای پرتکرار سازمانی، با بهبود قابل توجه در عملکرد و مقرون به صرفه بودن. در مقایسه با مدل Baichuan2، ۲۰٪ بهبود در تولید محتوا، ۱۷٪ بهبود در پرسش و پاسخ دانش، و ۴۰٪ بهبود در توانایی نقشآفرینی. عملکرد کلی بهتر از GPT3.5 است."
},
"Baichuan4": {
"description": "این مدل از نظر توانایی در داخل کشور رتبه اول را دارد و در وظایف چینی مانند دانشنامه، متون طولانی و تولید محتوا از مدلهای اصلی خارجی پیشی میگیرد. همچنین دارای توانایی چندوجهی پیشرو در صنعت است و در چندین معیار ارزیابی معتبر عملکرد برجستهای دارد."
},
"Baichuan4-Air": {
"description": "توانایی مدل در کشور اول است و در وظایف چینی مانند دانشنامه، متنهای طولانی و تولید خلاقانه از مدلهای اصلی خارجی پیشی میگیرد. همچنین دارای قابلیتهای چندرسانهای پیشرفته در صنعت است و در چندین معیار ارزیابی معتبر عملکرد عالی دارد."
},
"Baichuan4-Turbo": {
"description": "توانایی مدل در کشور اول است و در وظایف چینی مانند دانشنامه، متنهای طولانی و تولید خلاقانه از مدلهای اصلی خارجی پیشی میگیرد. همچنین دارای قابلیتهای چندرسانهای پیشرفته در صنعت است و در چندین معیار ارزیابی معتبر عملکرد عالی دارد."
},
"DeepSeek-R1": {
"description": "مدل LLM پیشرفته و کارآمد که در استدلال، ریاضیات و برنامهنویسی تخصص دارد."
},
"DeepSeek-R1-Distill-Llama-70B": {
"description": "DeepSeek R1 - مدل بزرگتر و هوشمندتر در مجموعه DeepSeek - به ساختار لاما 70B تقطیر شده است. بر اساس آزمونهای معیار و ارزیابیهای انسانی، این مدل نسبت به لاما 70B اصلی هوشمندتر است و به ویژه در وظایفی که نیاز به دقت ریاضی و واقعیات دارند، عملکرد عالی دارد."
},
"DeepSeek-R1-Distill-Qwen-1.5B": {
"description": "مدل تقطیر DeepSeek-R1 مبتنی بر Qwen2.5-Math-1.5B است که با استفاده از یادگیری تقویتی و دادههای شروع سرد عملکرد استدلال را بهینهسازی کرده و مدلهای متنباز را به روز کرده است."
},
"DeepSeek-R1-Distill-Qwen-14B": {
"description": "مدل تقطیر DeepSeek-R1 مبتنی بر Qwen2.5-14B است که با استفاده از یادگیری تقویتی و دادههای شروع سرد عملکرد استدلال را بهینهسازی کرده و مدلهای متنباز را به روز کرده است."
},
"DeepSeek-R1-Distill-Qwen-32B": {
"description": "سری DeepSeek-R1 با استفاده از یادگیری تقویتی و دادههای شروع سرد عملکرد استدلال را بهینهسازی کرده و مدلهای متنباز را به روز کرده و از سطح OpenAI-o1-mini فراتر رفته است."
},
"DeepSeek-R1-Distill-Qwen-7B": {
"description": "مدل تقطیر DeepSeek-R1 مبتنی بر Qwen2.5-Math-7B است که با استفاده از یادگیری تقویتی و دادههای شروع سرد عملکرد استدلال را بهینهسازی کرده و مدلهای متنباز را به روز کرده است."
},
"DeepSeek-V3": {
"description": "DeepSeek-V3 یک مدل MoE است که توسط شرکت DeepSeek توسعه یافته است. نتایج ارزیابیهای متعدد DeepSeek-V3 از مدلهای متن باز دیگر مانند Qwen2.5-72B و Llama-3.1-405B فراتر رفته و از نظر عملکرد با مدلهای بسته جهانی برتر مانند GPT-4o و Claude-3.5-Sonnet برابری میکند."
},
"Doubao-lite-128k": {
"description": "Doubao-lite دارای سرعت پاسخگویی بینظیر و نسبت قیمت به کارایی بهتر است و گزینههای انعطافپذیرتری را برای سناریوهای مختلف مشتریان ارائه میدهد. از پنجره متنی 128k برای استدلال و تنظیم دقیق پشتیبانی میکند."
},
"Doubao-lite-32k": {
"description": "Doubao-lite دارای سرعت پاسخگویی بینظیر و نسبت قیمت به کارایی بهتر است و گزینههای انعطافپذیرتری را برای سناریوهای مختلف مشتریان ارائه میدهد. از پنجره متنی 32k برای استدلال و تنظیم دقیق پشتیبانی میکند."
},
"Doubao-lite-4k": {
"description": "Doubao-lite دارای سرعت پاسخگویی بینظیر و نسبت قیمت به کارایی بهتر است و گزینههای انعطافپذیرتری را برای سناریوهای مختلف مشتریان ارائه میدهد. از پنجره متنی 4k برای استدلال و تنظیم دقیق پشتیبانی میکند."
},
"Doubao-pro-128k": {
"description": "مدل اصلی با بهترین عملکرد، مناسب برای انجام وظایف پیچیده است و در زمینههایی مانند پاسخ به سوالات مرجع، خلاصهسازی، خلق محتوا، دستهبندی متن و نقشآفرینی عملکرد بسیار خوبی دارد. از پنجره متنی 128k برای استدلال و تنظیم دقیق پشتیبانی میکند."
},
"Doubao-pro-32k": {
"description": "مدل اصلی با بهترین عملکرد، مناسب برای انجام وظایف پیچیده است و در زمینههایی مانند پاسخ به سوالات مرجع، خلاصهسازی، خلق محتوا، دستهبندی متن و نقشآفرینی عملکرد بسیار خوبی دارد. از پنجره متنی 32k برای استدلال و تنظیم دقیق پشتیبانی میکند."
},
"Doubao-pro-4k": {
"description": "مدل اصلی با بهترین عملکرد، مناسب برای انجام وظایف پیچیده است و در زمینههایی مانند پاسخ به سوالات مرجع، خلاصهسازی، خلق محتوا، دستهبندی متن و نقشآفرینی عملکرد بسیار خوبی دارد. از پنجره متنی 4k برای استدلال و تنظیم دقیق پشتیبانی میکند."
},
"DreamO": {
"description": "DreamO یک مدل تولید تصویر سفارشی متنباز است که توسط شرکت بایتدنس و دانشگاه پکن به صورت مشترک توسعه یافته است و هدف آن پشتیبانی از تولید چندوظیفهای تصویر از طریق معماری یکپارچه است. این مدل از روش مدلسازی ترکیبی کارآمد استفاده میکند و میتواند تصاویر بسیار سازگار و سفارشیشدهای را بر اساس شرایطی مانند هویت، موضوع، سبک و پسزمینه که توسط کاربر تعیین میشود، تولید کند."
},
"ERNIE-3.5-128K": {
"description": "مدل زبان بزرگ پرچمدار توسعهیافته توسط بایدو، که حجم عظیمی از متون چینی و انگلیسی را پوشش میدهد و دارای تواناییهای عمومی قدرتمندی است. این مدل میتواند نیازهای اکثر سناریوهای پرسش و پاسخ، تولید محتوا و استفاده از افزونهها را برآورده کند؛ همچنین از اتصال خودکار به افزونه جستجوی بایدو پشتیبانی میکند تا بهروز بودن اطلاعات پرسش و پاسخ را تضمین کند."
},
"ERNIE-3.5-8K": {
"description": "مدل زبان بزرگ پرچمدار توسعهیافته توسط بایدو، که حجم عظیمی از متون چینی و انگلیسی را پوشش میدهد و دارای تواناییهای عمومی قدرتمندی است. این مدل میتواند نیازهای اکثر سناریوهای پرسش و پاسخ، تولید محتوا و استفاده از افزونهها را برآورده کند؛ همچنین از اتصال خودکار به افزونه جستجوی بایدو پشتیبانی میکند تا بهروز بودن اطلاعات پرسش و پاسخ را تضمین نماید."
},
"ERNIE-3.5-8K-Preview": {
"description": "مدل زبان بزرگ پرچمدار توسعهیافته توسط بایدو، که حجم عظیمی از متون چینی و انگلیسی را پوشش میدهد و دارای تواناییهای عمومی قدرتمندی است. این مدل میتواند نیازهای اکثر سناریوهای پرسش و پاسخ، تولید محتوا و استفاده از افزونهها را برآورده کند؛ همچنین از اتصال خودکار به افزونه جستجوی بایدو پشتیبانی میکند تا بهروز بودن اطلاعات پرسش و پاسخ را تضمین کند."
},
"ERNIE-4.0-8K-Latest": {
"description": "مدل زبان بزرگ مقیاس پرچمدار توسعهیافته توسط بایدو، که نسبت به ERNIE 3.5 ارتقاء کامل در تواناییهای مدل را به ارمغان آورده است و برای وظایف پیچیده در حوزههای مختلف مناسب است؛ از اتصال خودکار به افزونه جستجوی بایدو پشتیبانی میکند و بهروزرسانی اطلاعات پرسش و پاسخ را تضمین مینماید."
},
"ERNIE-4.0-8K-Preview": {
"description": "مدل زبان بزرگ مقیاس پرچمدار توسعهیافته توسط بایدو، در مقایسه با ERNIE 3.5 ارتقاء کامل تواناییهای مدل را به ارمغان آورده و برای وظایف پیچیده در حوزههای مختلف مناسب است؛ از افزونه جستجوی بایدو پشتیبانی میکند تا اطلاعات پرسش و پاسخ بهروز بماند."
},
"ERNIE-4.0-Turbo-8K-Latest": {
"description": "مدل زبان بزرگ و پیشرفتهای که توسط بایدو توسعه یافته است، با عملکرد برجسته در زمینههای مختلف و مناسب برای وظایف پیچیده؛ از افزونه جستجوی بایدو بهطور خودکار پشتیبانی میکند تا اطلاعات بهروز را در پاسخها تضمین کند. در مقایسه با ERNIE 4.0، عملکرد بهتری دارد."
},
"ERNIE-4.0-Turbo-8K-Preview": {
"description": "مدل زبان بزرگ و پرچمدار با مقیاس فوقالعاده که توسط بایدو توسعه یافته است، با عملکرد برجسته در زمینههای مختلف و مناسب برای وظایف پیچیده؛ پشتیبانی از اتصال خودکار به افزونه جستجوی بایدو برای اطمینان از بهروز بودن اطلاعات پرسش و پاسخ. در مقایسه با ERNIE 4.0، عملکرد بهتری دارد."
},
"ERNIE-Character-8K": {
"description": "مدل زبان بزرگ عمودی توسعهیافته توسط بایدو، مناسب برای صحنههای کاربردی مانند NPCهای بازی، مکالمات پشتیبانی مشتری، و نقشآفرینی در مکالمات. سبک شخصیتها برجستهتر و یکپارچهتر است، توانایی پیروی از دستورات قویتر و عملکرد استدلالی بهینهتر است."
},
"ERNIE-Lite-Pro-128K": {
"description": "مدل زبان بزرگ سبکوزن توسعهیافته توسط بایدو، که تعادل بین عملکرد مدل عالی و کارایی استنتاج را حفظ میکند. عملکرد آن بهتر از ERNIE Lite است و برای استفاده در کارتهای شتابدهنده AI با قدرت محاسباتی پایین مناسب است."
},
"ERNIE-Speed-128K": {
"description": "مدل زبان بزرگ با عملکرد بالا که در سال 2024 توسط بایدو توسعه یافته است. این مدل دارای تواناییهای عمومی برجستهای است و به عنوان یک مدل پایه برای تنظیم دقیق در سناریوهای خاص مناسب است و همچنین از عملکرد استنتاجی بسیار خوبی برخوردار است."
},
"ERNIE-Speed-Pro-128K": {
"description": "مدل زبان بزرگ با عملکرد بالا که در سال 2024 توسط بایدو بهطور مستقل توسعه یافته است. این مدل دارای تواناییهای عمومی برجستهای است و عملکرد بهتری نسبت به ERNIE Speed دارد. مناسب برای استفاده به عنوان مدل پایه برای تنظیم دقیق و حل بهتر مسائل در سناریوهای خاص، همچنین دارای عملکرد استنتاجی بسیار عالی است."
},
"FLUX.1-Kontext-dev": {
"description": "FLUX.1-Kontext-dev یک مدل تولید و ویرایش تصویر چندرسانهای است که توسط Black Forest Labs توسعه یافته و بر اساس معماری Rectified Flow Transformer ساخته شده است. این مدل با 12 میلیارد پارامتر، بر تولید، بازسازی، تقویت یا ویرایش تصاویر تحت شرایط متنی تمرکز دارد. این مدل ترکیبی از مزایای تولید کنترلشده مدلهای انتشار و قابلیت مدلسازی زمینهای ترنسفورمر است و از خروجی تصاویر با کیفیت بالا پشتیبانی میکند و در وظایفی مانند ترمیم تصویر، تکمیل تصویر و بازسازی صحنههای بصری کاربرد گسترده دارد."
},
"FLUX.1-dev": {
"description": "FLUX.1-dev یک مدل زبان چندرسانهای متنباز است که توسط Black Forest Labs توسعه یافته و برای وظایف ترکیبی تصویر و متن بهینه شده است. این مدل بر پایه مدلهای زبان بزرگ پیشرفته مانند Mistral-7B ساخته شده و با استفاده از رمزگذار بصری طراحیشده و تنظیم دقیق چندمرحلهای دستوری، توانایی پردازش همزمان تصویر و متن و استدلال در وظایف پیچیده را دارد."
},
"Gryphe/MythoMax-L2-13b": {
"description": "MythoMax-L2 (13B) یک مدل نوآورانه است که برای کاربردهای چندرشتهای و وظایف پیچیده مناسب است."
},
"HelloMeme": {
"description": "HelloMeme یک ابزار هوش مصنوعی است که میتواند بر اساس تصاویر یا حرکاتی که شما ارائه میدهید، به طور خودکار میم، گیف یا ویدیوهای کوتاه تولید کند. این ابزار نیازی به دانش نقاشی یا برنامهنویسی ندارد و تنها با داشتن تصاویر مرجع، میتواند محتوایی زیبا، سرگرمکننده و با سبک یکپارچه برای شما بسازد."
},
"HiDream-I1-Full": {
"description": "HiDream-E1-Full یک مدل بزرگ ویرایش تصویر چندرسانهای متنباز است که توسط HiDream.ai توسعه یافته است. این مدل بر پایه معماری پیشرفته Diffusion Transformer ساخته شده و با توانایی قوی درک زبان (با LLaMA 3.1-8B-Instruct داخلی) از طریق دستورات زبان طبیعی، تولید تصویر، انتقال سبک، ویرایش موضعی و بازنقاشی محتوا را پشتیبانی میکند و دارای قابلیتهای برجسته در درک و اجرای ترکیب تصویر و متن است."
},
"HunyuanDiT-v1.2-Diffusers-Distilled": {
"description": "hunyuandit-v1.2-distilled یک مدل سبک تولید تصویر از متن است که با استفاده از تکنیک تقطیر بهینه شده و قادر است به سرعت تصاویر با کیفیت بالا تولید کند، به ویژه مناسب محیطهای با منابع محدود و وظایف تولید در زمان واقعی است."
},
"InstantCharacter": {
"description": "InstantCharacter یک مدل تولید شخصیت شخصیسازی شده بدون نیاز به تنظیم دقیق است که توسط تیم هوش مصنوعی Tencent در سال ۲۰۲۵ منتشر شده است. هدف این مدل تولید شخصیتهای با وفاداری بالا و سازگار در صحنههای مختلف است. این مدل تنها با یک تصویر مرجع قادر به مدلسازی شخصیت است و میتواند آن را به سبکها، حرکات و پسزمینههای مختلف به طور انعطافپذیر منتقل کند."
},
"InternVL2-8B": {
"description": "InternVL2-8B یک مدل زبان بصری قدرتمند است که از پردازش چند حالتی تصویر و متن پشتیبانی میکند و قادر است محتوای تصویر را به دقت شناسایی کرده و توصیف یا پاسخهای مرتبط تولید کند."
},
"InternVL2.5-26B": {
"description": "InternVL2.5-26B یک مدل زبان بصری قدرتمند است که از پردازش چند حالتی تصویر و متن پشتیبانی میکند و قادر است محتوای تصویر را به دقت شناسایی کرده و توصیف یا پاسخهای مرتبط تولید کند."
},
"Kolors": {
"description": "Kolors یک مدل تولید تصویر از متن است که توسط تیم Kolors شرکت Kuaishou توسعه یافته است. این مدل با میلیاردها پارامتر آموزش دیده و در کیفیت بصری، درک معنایی زبان چینی و رندر متن عملکرد برجستهای دارد."
},
"Kwai-Kolors/Kolors": {
"description": "Kolors یک مدل بزرگ تولید تصویر از متن مبتنی بر انتشار نهفته است که توسط تیم Kolors شرکت Kuaishou توسعه یافته است. این مدل با آموزش روی میلیاردها جفت متن-تصویر، در کیفیت بصری، دقت معنایی پیچیده و رندر کاراکترهای چینی و انگلیسی عملکرد برجستهای دارد. این مدل نه تنها از ورودیهای چینی و انگلیسی پشتیبانی میکند بلکه در درک و تولید محتوای خاص زبان چینی نیز بسیار توانمند است."
},
"Llama-3.2-11B-Vision-Instruct": {
"description": "توانایی استدلال تصویری عالی در تصاویر با وضوح بالا، مناسب برای برنامههای درک بصری."
},
"Llama-3.2-90B-Vision-Instruct\t": {
"description": "توانایی استدلال تصویری پیشرفته برای برنامههای نمایندگی درک بصری."
},
"Meta-Llama-3.1-405B-Instruct": {
"description": "مدل متنی تنظیم شده لاما 3.1 که برای موارد مکالمه چند زبانه بهینهسازی شده و در بسیاری از مدلهای چت متن باز و بسته موجود، در معیارهای صنعتی رایج عملکرد عالی دارد."
},
"Meta-Llama-3.1-70B-Instruct": {
"description": "مدل متنی تنظیم شده لاما 3.1 که برای موارد مکالمه چند زبانه بهینهسازی شده و در بسیاری از مدلهای چت متن باز و بسته موجود، در معیارهای صنعتی رایج عملکرد عالی دارد."
},
"Meta-Llama-3.1-8B-Instruct": {
"description": "مدل متنی تنظیم شده لاما 3.1 که برای موارد مکالمه چند زبانه بهینهسازی شده و در بسیاری از مدلهای چت متن باز و بسته موجود، در معیارهای صنعتی رایج عملکرد عالی دارد."
},
"Meta-Llama-3.2-1B-Instruct": {
"description": "مدل زبان کوچک پیشرفته و پیشرفته، با قابلیت درک زبان، توانایی استدلال عالی و توانایی تولید متن."
},
"Meta-Llama-3.2-3B-Instruct": {
"description": "مدل زبان کوچک پیشرفته و پیشرفته، با قابلیت درک زبان، توانایی استدلال عالی و توانایی تولید متن."
},
"Meta-Llama-3.3-70B-Instruct": {
"description": "لاما 3.3 پیشرفتهترین مدل زبان چند زبانه و متن باز در سری لاما است که با هزینهای بسیار کم، عملکردی مشابه مدل 405B را ارائه میدهد. این مدل بر اساس ساختار ترنسفورمر طراحی شده و از طریق تنظیم دقیق نظارتی (SFT) و یادگیری تقویتی با بازخورد انسانی (RLHF) بهبود یافته است تا کارایی و ایمنی آن افزایش یابد. نسخه تنظیم شده آن به طور خاص برای مکالمات چند زبانه بهینهسازی شده و در چندین معیار صنعتی، عملکردی بهتر از بسیاری از مدلهای چت متن باز و بسته دارد. تاریخ قطع دانش آن تا دسامبر 2023 است."
},
"MiniMax-M1": {
"description": "مدل استنتاج کاملاً توسعهیافته داخلی. پیشرو در جهان: ۸۰ هزار زنجیره فکری در برابر ۱ میلیون ورودی، عملکردی برابر با مدلهای برتر خارجی."
},
"MiniMax-Text-01": {
"description": "در سری مدلهای MiniMax-01، ما نوآوریهای جسورانهای انجام دادهایم: برای اولین بار مکانیزم توجه خطی را به طور وسیع پیادهسازی کردهایم و معماری سنتی Transformer دیگر تنها گزینه نیست. این مدل دارای 456 میلیارد پارامتر است که در یک بار فعالسازی 45.9 میلیارد است. عملکرد کلی این مدل با بهترین مدلهای خارجی برابری میکند و در عین حال میتواند به طور مؤثر به متنهای طولانی جهانی با 4 میلیون توکن رسیدگی کند، که 32 برابر GPT-4o و 20 برابر Claude-3.5-Sonnet است."
},
"MiniMaxAI/MiniMax-M1-80k": {
"description": "MiniMax-M1 یک مدل استنتاج بزرگ با وزنهای متنباز و توجه ترکیبی است که دارای ۴۵۶ میلیارد پارامتر است و هر توکن میتواند حدود ۴۵.۹ میلیارد پارامتر را فعال کند. این مدل به طور بومی از زمینه بسیار طولانی ۱ میلیون توکن پشتیبانی میکند و با مکانیزم توجه سریع، در وظایف تولید ۱۰۰ هزار توکن نسبت به DeepSeek R1، ۷۵٪ از محاسبات نقطه شناور را صرفهجویی میکند. همچنین، MiniMax-M1 از معماری MoE (متخصصان ترکیبی) بهره میبرد و با ترکیب الگوریتم CISPO و طراحی توجه ترکیبی در آموزش تقویتی کارآمد، عملکرد پیشرو در صنعت را در استنتاج ورودیهای طولانی و سناریوهای واقعی مهندسی نرمافزار ارائه میدهد."
},
"Moonshot-Kimi-K2-Instruct": {
"description": "مدل با 1 تریلیون پارامتر کل و 32 میلیارد پارامتر فعال. در میان مدلهای غیرتفکری، در دانش پیشرفته، ریاضیات و برنامهنویسی در سطح برتر قرار دارد و در وظایف عامل عمومی تخصص دارد. به طور ویژه برای وظایف نمایندگی بهینه شده است، نه تنها قادر به پاسخگویی به سوالات بلکه قادر به انجام اقدامات است. بهترین گزینه برای گفتگوهای بداهه، چت عمومی و تجربههای نمایندگی است و یک مدل واکنشی بدون نیاز به تفکر طولانی مدت محسوب میشود."
},
"NousResearch/Nous-Hermes-2-Mixtral-8x7B-DPO": {
"description": "Nous Hermes 2 - Mixtral 8x7B-DPO (46.7B) یک مدل دستورالعمل با دقت بالا است که برای محاسبات پیچیده مناسب است."
},
"OmniConsistency": {
"description": "OmniConsistency با معرفی مدلهای بزرگ Diffusion Transformers (DiTs) و دادههای سبکدار جفتشده، انسجام سبک و قابلیت تعمیم در وظایف تصویر به تصویر (Image-to-Image) را بهبود میبخشد و از افت کیفیت سبک جلوگیری میکند."
},
"Phi-3-medium-128k-instruct": {
"description": "همان مدل Phi-3-medium، اما با اندازه بزرگتر زمینه، مناسب برای RAG یا تعداد کمی از دستورات."
},
"Phi-3-medium-4k-instruct": {
"description": "یک مدل با ۱۴ میلیارد پارامتر که کیفیت آن بهتر از Phi-3-mini است و تمرکز آن بر دادههای با کیفیت بالا و فشردهسازی استدلالی است."
},
"Phi-3-mini-128k-instruct": {
"description": "مدل مشابه Phi-3-mini، اما با اندازه بزرگتر زمینه، مناسب برای RAG یا تعداد کمی از دستورات."
},
"Phi-3-mini-4k-instruct": {
"description": "کوچکترین عضو خانواده Phi-3، بهینهسازی شده برای کیفیت و تأخیر کم."
},
"Phi-3-small-128k-instruct": {
"description": "همان مدل Phi-3-small، اما با اندازه بزرگتر زمینه، مناسب برای RAG یا تعداد کمی از دستورات."
},
"Phi-3-small-8k-instruct": {
"description": "یک مدل با ۷ میلیارد پارامتر که کیفیت آن بهتر از Phi-3-mini است و تمرکز آن بر دادههای با کیفیت بالا و فشردهسازی استدلالی است."
},
"Phi-3.5-mini-instruct": {
"description": "نسخه بهروزرسانیشده مدل Phi-3-mini."
},
"Phi-3.5-vision-instrust": {
"description": "نسخه بهروزرسانیشده مدل Phi-3-vision."
},
"Pro/Qwen/Qwen2-7B-Instruct": {
"description": "Qwen2-7B-Instruct یک مدل زبانی بزرگ با تنظیم دقیق دستوری در سری Qwen2 است که اندازه پارامتر آن 7B است. این مدل بر اساس معماری Transformer ساخته شده و از تکنیکهای SwiGLU،偏置 QKV توجه و توجه گروهی استفاده میکند. این مدل قادر به پردازش ورودیهای بزرگ مقیاس است. این مدل در درک زبان، تولید، توانایی چند زبانه، کدنویسی، ریاضی و استدلال در چندین آزمون معیار عملکرد عالی دارد و از اکثر مدلهای متن باز پیشی گرفته و در برخی وظایف رقابت قابل توجهی با مدلهای اختصاصی نشان میدهد. Qwen2-7B-Instruct در چندین ارزیابی از Qwen1.5-7B-Chat پیشی گرفته و بهبود قابل توجهی در عملکرد نشان داده است."
},
"Pro/Qwen/Qwen2.5-7B-Instruct": {
"description": "Qwen2.5-7B-Instruct یکی از جدیدترین سری مدلهای زبانی بزرگ منتشر شده توسط Alibaba Cloud است. این مدل 7B در زمینههای کدنویسی و ریاضی دارای تواناییهای بهبود یافته قابل توجهی است. این مدل همچنین از پشتیبانی چند زبانه برخوردار است و بیش از 29 زبان از جمله چینی و انگلیسی را پوشش میدهد. این مدل در پیروی از دستورات، درک دادههای ساختاری و تولید خروجیهای ساختاری (به ویژه JSON) به طور قابل توجهی بهبود یافته است."
},
"Pro/Qwen/Qwen2.5-Coder-7B-Instruct": {
"description": "Qwen2.5-Coder-7B-Instruct جدیدترین نسخه از سری مدلهای زبانی بزرگ خاص کد است که توسط Alibaba Cloud منتشر شده است. این مدل بر اساس Qwen2.5 و با آموزش 5.5 تریلیون توکن، توانایی تولید کد، استدلال و اصلاح را به طور قابل توجهی افزایش داده است. این مدل نه تنها توانایی کدنویسی را تقویت کرده بلکه مزایای ریاضی و عمومی را نیز حفظ کرده است. این مدل پایهای جامعتر برای کاربردهای عملی مانند عاملهای کد فراهم میکند."
},
"Pro/Qwen/Qwen2.5-VL-7B-Instruct": {
"description": "Qwen2.5-VL عضو جدید سری Qwen است که توانایی قدرتمند درک بصری دارد. این مدل میتواند متن، نمودارها و طرحبندیهای درون تصاویر را تحلیل کند و همچنین قادر به درک ویدیوهای بلند و گرفتن رویدادهاست. این مدل میتواند استدلال کند، ابزارها را عملیاتی کند، و از چندین فرمت برای تعیین موقعیت اشیا و تولید خروجی ساختاری پشتیبانی میکند. همچنین، آن از رزولوشن و نرخ فریم پویا برای درک ویدیو بهینهسازی شده است و کارایی کدگذار بصری آن نیز افزایش یافته است."
},
"Pro/THUDM/GLM-4.1V-9B-Thinking": {
"description": "GLM-4.1V-9B-Thinking یک مدل زبان تصویری متنباز (VLM) است که بهطور مشترک توسط Zhizhu AI و آزمایشگاه KEG دانشگاه تسینگهوا منتشر شده است و بهطور خاص برای پردازش وظایف شناختی چندرسانهای پیچیده طراحی شده است. این مدل بر اساس مدل پایه GLM-4-9B-0414 ساخته شده و با معرفی مکانیزم استدلال «زنجیره تفکر» (Chain-of-Thought) و استفاده از استراتژی یادگیری تقویتی، بهطور قابل توجهی توانایی استدلال چندرسانهای و پایداری آن را بهبود بخشیده است."
},
"Pro/THUDM/glm-4-9b-chat": {
"description": "GLM-4-9B-Chat نسخه متن باز از مدلهای پیشآموزش شده سری GLM-4 است که توسط AI Zhizhu ارائه شده است. این مدل در زمینههای معنایی، ریاضی، استدلال، کد و دانش عملکرد عالی دارد. علاوه بر پشتیبانی از گفتگوی چند دور، GLM-4-9B-Chat همچنین دارای قابلیتهای پیشرفتهای مانند مرور وب، اجرای کد، فراخوانی ابزارهای سفارشی (Function Call) و استدلال متن طولانی است. این مدل از 26 زبان پشتیبانی میکند، از جمله چینی، انگلیسی، ژاپنی، کرهای و آلمانی. در چندین آزمون معیار، GLM-4-9B-Chat عملکرد عالی نشان داده است، مانند AlignBench-v2، MT-Bench، MMLU و C-Eval. این مدل از حداکثر طول زمینه 128K پشتیبانی میکند و برای تحقیقات علمی و کاربردهای تجاری مناسب است."
},
"Pro/deepseek-ai/DeepSeek-R1": {
"description": "DeepSeek-R1 یک مدل استنتاجی مبتنی بر یادگیری تقویتی (RL) است که مشکلات تکرار و خوانایی را در مدل حل میکند. قبل از RL، DeepSeek-R1 دادههای شروع سرد را معرفی کرده و عملکرد استنتاج را بهینهسازی کرده است. این مدل در وظایف ریاضی، کد و استنتاج با OpenAI-o1 عملکرد مشابهی دارد و از طریق روشهای آموزشی به دقت طراحی شده، عملکرد کلی را بهبود میبخشد."
},
"Pro/deepseek-ai/DeepSeek-R1-Distill-Qwen-7B": {
"description": "DeepSeek-R1-Distill-Qwen-7B مدلی است که بر اساس Qwen2.5-Math-7B از طریق دستیابی به دانش (Knowledge Distillation) ساخته شده است. این مدل با استفاده از 800,000 نمونه انتخابی تولید شده توسط DeepSeek-R1 آموزش داده شده و توانایی استنتاج ممتازی نشان میدهد. این مدل در چندین تست استاندارد عملکرد خوبی داشته است، از جمله دقت 92.8٪ در MATH-500، نرخ موفقیت 55.5٪ در AIME 2024 و نمره 1189 در CodeForces، که نشاندهنده تواناییهای قوی ریاضی و برنامهنویسی برای یک مدل با حجم 7B است."
},
"Pro/deepseek-ai/DeepSeek-V3": {
"description": "DeepSeek-V3 یک مدل زبان با 671 میلیارد پارامتر است که از معماری متخصصان ترکیبی (MoE) و توجه چندسر (MLA) استفاده میکند و با استراتژی تعادل بار بدون ضرر کمکی بهینهسازی کارایی استنتاج و آموزش را انجام میدهد. این مدل با پیشآموزش بر روی 14.8 تریلیون توکن با کیفیت بالا و انجام تنظیم دقیق نظارتی و یادگیری تقویتی، در عملکرد از سایر مدلهای متنباز پیشی میگیرد و به مدلهای بسته پیشرو نزدیک میشود."
},
"Pro/moonshotai/Kimi-K2-Instruct": {
"description": "Kimi K2 یک مدل پایه با معماری MoE است که دارای تواناییهای بسیار قوی در کدنویسی و عامل است، با 1 تریلیون پارامتر کل و 32 میلیارد پارامتر فعال. در آزمونهای معیار عملکرد در حوزههای دانش عمومی، برنامهنویسی، ریاضیات و عامل، مدل K2 عملکردی فراتر از سایر مدلهای متنباز اصلی دارد."
},
"QwQ-32B-Preview": {
"description": "QwQ-32B-Preview یک مدل پردازش زبان طبیعی نوآورانه است که قادر به پردازش کارآمد مکالمات پیچیده و درک زمینه است."
},
"Qwen/QVQ-72B-Preview": {
"description": "QVQ-72B-Preview یک مدل تحقیقاتی است که توسط تیم Qwen توسعه یافته و بر روی تواناییهای استنتاج بصری تمرکز دارد و در درک صحنههای پیچیده و حل مسائل ریاضی مرتبط با بصری دارای مزیتهای منحصر به فردی است."
},
"Qwen/QwQ-32B": {
"description": "QwQ مدل استنتاجی از سری Qwen است. در مقایسه با مدلهای سنتی بهینهسازی دستورالعمل، QwQ دارای توانایی تفکر و استنتاج است و میتواند در وظایف پاییندستی عملکرد قابل توجهی را به ویژه در حل مسائل دشوار ارائه دهد. QwQ-32B یک مدل استنتاجی متوسط است که میتواند در مقایسه با مدلهای استنتاجی پیشرفته (مانند DeepSeek-R1، o1-mini) عملکرد رقابتی را به دست آورد. این مدل از تکنیکهایی مانند RoPE، SwiGLU، RMSNorm و Attention QKV bias استفاده میکند و دارای ساختار شبکه 64 لایه و 40 سر توجه Q (در معماری GQA، KV برابر با 8 است) میباشد."
},
"Qwen/QwQ-32B-Preview": {
"description": "QwQ-32B-Preview جدیدترین مدل تحقیقاتی تجربی Qwen است که بر بهبود توانایی استدلال AI تمرکز دارد. با کاوش در مکانیزمهای پیچیدهای مانند ترکیب زبان و استدلال بازگشتی، مزایای اصلی شامل توانایی تحلیل استدلال قوی، توانایی ریاضی و برنامهنویسی است. در عین حال، مشکلاتی مانند تغییر زبان، حلقههای استدلال، ملاحظات ایمنی و تفاوتهای دیگر در تواناییها وجود دارد."
},
"Qwen/Qwen2-72B-Instruct": {
"description": "Qwen 2 Instruct (72B) دستورالعملهای دقیق برای کاربردهای سازمانی ارائه میدهد و به درستی به آنها پاسخ میدهد."
},
"Qwen/Qwen2-7B-Instruct": {
"description": "Qwen2-72B-Instruct یک مدل زبانی بزرگ با تنظیم دقیق دستوری در سری Qwen2 است که اندازه پارامتر آن 72B است. این مدل بر اساس معماری Transformer ساخته شده و از تکنیکهای SwiGLU،偏置 QKV توجه و توجه گروهی استفاده میکند. این مدل قادر به پردازش ورودیهای بزرگ مقیاس است. این مدل در درک زبان، تولید، توانایی چند زبانه، کدنویسی، ریاضی و استدلال در چندین آزمون معیار عملکرد عالی دارد و از اکثر مدلهای متن باز پیشی گرفته و در برخی وظایف رقابت قابل توجهی با مدلهای اختصاصی نشان میدهد."
},
"Qwen/Qwen2-VL-72B-Instruct": {
"description": "Qwen2-VL جدیدترین نسخه از مدل Qwen-VL است که در آزمونهای معیار درک بصری به پیشرفتهترین عملکرد دست یافته است."
},
"Qwen/Qwen2.5-14B-Instruct": {
"description": "Qwen2.5 یک سری جدید از مدلهای زبانی بزرگ است که با هدف بهینهسازی پردازش وظایف دستوری طراحی شده است."
},
"Qwen/Qwen2.5-32B-Instruct": {
"description": "Qwen2.5 یک سری جدید از مدلهای زبانی بزرگ است که با هدف بهینهسازی پردازش وظایف دستوری طراحی شده است."
},
"Qwen/Qwen2.5-72B-Instruct": {
"description": "مدل زبانی بزرگ توسعه یافته توسط تیم علیبابا، تونگyi چنوِن."
},
"Qwen/Qwen2.5-72B-Instruct-128K": {
"description": "Qwen2.5 یک سری جدید از مدلهای زبان بزرگ است که دارای تواناییهای قویتر در درک و تولید میباشد."
},
"Qwen/Qwen2.5-72B-Instruct-Turbo": {
"description": "Qwen2.5 یک سری جدید از مدلهای زبانی بزرگ است که با هدف بهینهسازی پردازش وظایف دستوری طراحی شده است."
},
"Qwen/Qwen2.5-7B-Instruct": {
"description": "Qwen2.5 یک سری جدید از مدلهای زبان بزرگ است که با هدف بهینهسازی پردازش وظایف دستوری طراحی شده است."
},
"Qwen/Qwen2.5-7B-Instruct-Turbo": {
"description": "Qwen2.5 یک سری جدید از مدلهای زبانی بزرگ است که با هدف بهینهسازی پردازش وظایف دستوری طراحی شده است."
},
"Qwen/Qwen2.5-Coder-32B-Instruct": {
"description": "Qwen2.5-Coder بر نوشتن کد تمرکز دارد."
},
"Qwen/Qwen2.5-Coder-7B-Instruct": {
"description": "Qwen2.5-Coder-7B-Instruct جدیدترین نسخه از سری مدلهای زبانی بزرگ خاص کد است که توسط Alibaba Cloud منتشر شده است. این مدل بر اساس Qwen2.5 و با آموزش 5.5 تریلیون توکن، توانایی تولید کد، استدلال و اصلاح را به طور قابل توجهی افزایش داده است. این مدل نه تنها توانایی کدنویسی را تقویت کرده بلکه مزایای ریاضی و عمومی را نیز حفظ کرده است. این مدل پایهای جامعتر برای کاربردهای عملی مانند عاملهای کد فراهم میکند."
},
"Qwen/Qwen2.5-VL-32B-Instruct": {
"description": "Qwen2.5-VL-32B-Instruct یک مدل چند حالتی از تیم Thousand Questions است که بخشی از سری Qwen2.5-VL میباشد. این مدل علاوه بر توانایی شناسایی اشیاء رایج، قادر به تحلیل متن، نمودار، نمادها، شکلها و طرحبندیهای درون تصاویر است. این مدل به عنوان یک هوش مصنوعی بصری عمل میکند، قادر به استدلال و کنترل ابزارها به صورت پویا است و توانایی استفاده از کامپیوتر و موبایل را دارد. علاوه بر این، این مدل میتواند اشیاء درون تصویر را با دقت بالا مکانیابی کند و برای فاکتورها، جداول و غیره خروجیهای ساختاریجادی تولید کند. نسبت به نسخه قبلی Qwen2-VL، این نسخه در تواناییهای ریاضی و حل مسئله از طریق یادگیری تقویتی پیشرفت کرده است و سبک پاسخگویی آن نیز بیشتر با ترجیحات انسانها هماهنگ است."
},
"Qwen/Qwen2.5-VL-72B-Instruct": {
"description": "Qwen2.5-VL مدل زبان و تصویر از سری Qwen2.5 است. این مدل در جنبههای مختلف بهبود یافته است: دارای توانایی تحلیل بصری قویتر، قادر به تشخیص اشیاء رایج، تحلیل متن، نمودارها و طرحبندی است؛ به عنوان یک عامل بصری میتواند استدلال کند و به طور پویا ابزارها را هدایت کند؛ از توانایی درک ویدیوهای طولانیتر از یک ساعت و شناسایی رویدادهای کلیدی برخوردار است؛ قادر به مکانیابی دقیق اشیاء در تصویر با تولید جعبههای مرزی یا نقاط است؛ و توانایی تولید خروجیهای ساختاریافته، به ویژه برای دادههای اسکن شده مانند فاکتورها و جداول را دارد."
},
"Qwen/Qwen3-14B": {
"description": "Qwen3 یک مدل بزرگ جدید با تواناییهای بهبود یافته است که در استدلال، عمومی، نمایندگی و چند زبانی به سطح پیشرفته صنعت دست یافته و از تغییر حالت تفکر پشتیبانی میکند."
},
"Qwen/Qwen3-235B-A22B": {
"description": "Qwen3 یک مدل بزرگ جدید با تواناییهای بهبود یافته است که در استدلال، عمومی، نمایندگی و چند زبانی به سطح پیشرفته صنعت دست یافته و از تغییر حالت تفکر پشتیبانی میکند."
},
"Qwen/Qwen3-235B-A22B-Instruct-2507": {
"description": "Qwen3-235B-A22B-Instruct-2507 یک مدل زبان بزرگ ترکیبی (MoE) پرچمدار از سری Qwen3 است که توسط تیم Tongyi Qianwen شرکت علیبابا توسعه یافته است. این مدل دارای 235 میلیارد پارامتر کل و 22 میلیارد پارامتر فعال در هر استنتاج است. نسخه بهروزشدهای از حالت غیرتفکری Qwen3-235B-A22B است که تمرکز بر بهبود قابل توجه در پیروی از دستورالعملها، استدلال منطقی، درک متن، ریاضیات، علوم، برنامهنویسی و استفاده از ابزارها دارد. همچنین پوشش دانش چندزبانه و ترجیحات کاربر در وظایف ذهنی و باز را بهبود بخشیده تا متنهای مفیدتر و با کیفیت بالاتری تولید کند."
},
"Qwen/Qwen3-235B-A22B-Thinking-2507": {
"description": "Qwen3-235B-A22B-Thinking-2507 عضوی از سری مدلهای بزرگ زبان Qwen3 است که توسط تیم Tongyi Qianwen شرکت علیبابا توسعه یافته و بر وظایف استدلال پیچیده و دشوار تمرکز دارد. این مدل بر پایه معماری MoE با 235 میلیارد پارامتر کل ساخته شده و در هر توکن حدود 22 میلیارد پارامتر فعال میکند که باعث افزایش کارایی محاسباتی در عین حفظ قدرت عملکرد میشود. به عنوان یک مدل اختصاصی \"تفکر\"، در استدلال منطقی، ریاضیات، علوم، برنامهنویسی و آزمونهای علمی که نیازمند تخصص انسانی هستند، عملکرد برجستهای دارد و در میان مدلهای تفکری متنباز در سطح برتر قرار دارد. همچنین تواناییهای عمومی مانند پیروی از دستورالعملها، استفاده از ابزار و تولید متن را تقویت کرده و به طور بومی از درک متنهای طولانی تا 256 هزار توکن پشتیبانی میکند که برای سناریوهای نیازمند استدلال عمیق و پردازش اسناد طولانی بسیار مناسب است."
},
"Qwen/Qwen3-30B-A3B": {
"description": "Qwen3 یک مدل بزرگ جدید با تواناییهای بهبود یافته است که در استدلال، عمومی، نمایندگی و چند زبانی به سطح پیشرفته صنعت دست یافته و از تغییر حالت تفکر پشتیبانی میکند."
},
"Qwen/Qwen3-30B-A3B-Instruct-2507": {
"description": "Qwen3-30B-A3B-Instruct-2507 نسخه بهروزرسانی شده مدل غیرتفکری Qwen3-30B-A3B است. این یک مدل متخصص ترکیبی (MoE) با مجموع ۳۰.۵ میلیارد پارامتر و ۳.۳ میلیارد پارامتر فعال است. این مدل در جنبههای مختلف بهبودهای کلیدی داشته است، از جمله افزایش قابل توجه در پیروی از دستورالعملها، استدلال منطقی، درک متن، ریاضیات، علوم، برنامهنویسی و استفاده از ابزارها. همچنین، پیشرفت قابل توجهی در پوشش دانش چندزبانه و تطابق بهتر با ترجیحات کاربران در وظایف ذهنی و باز دارد، که منجر به تولید پاسخهای مفیدتر و متون با کیفیت بالاتر میشود. علاوه بر این، توانایی درک متنهای بلند این مدل تا ۲۵۶ هزار توکن افزایش یافته است. این مدل فقط از حالت غیرتفکری پشتیبانی میکند و خروجی آن شامل برچسبهای `<think></think>` نخواهد بود."
},
"Qwen/Qwen3-32B": {
"description": "Qwen3 یک مدل بزرگ جدید با تواناییهای بهبود یافته است که در استدلال، عمومی، نمایندگی و چند زبانی به سطح پیشرفته صنعت دست یافته و از تغییر حالت تفکر پشتیبانی میکند."
},
"Qwen/Qwen3-8B": {
"description": "Qwen3 یک مدل بزرگ جدید با تواناییهای بهبود یافته است که در استدلال، عمومی، نمایندگی و چند زبانی به سطح پیشرفته صنعت دست یافته و از تغییر حالت تفکر پشتیبانی میکند."
},
"Qwen2-72B-Instruct": {
"description": "Qwen2 جدیدترین سری مدلهای Qwen است که از 128k زمینه پشتیبانی میکند. در مقایسه با بهترین مدلهای متنباز فعلی، Qwen2-72B در درک زبان طبیعی، دانش، کد، ریاضی و چندزبانگی به طور قابل توجهی از مدلهای پیشرو فعلی فراتر رفته است."
},
"Qwen2-7B-Instruct": {
"description": "Qwen2 جدیدترین سری مدلهای Qwen است که میتواند از مدلهای متنباز با مقیاس مشابه و حتی بزرگتر فراتر رود. Qwen2 7B در چندین ارزیابی برتری قابل توجهی به دست آورده است، به ویژه در درک کد و زبان چینی."
},
"Qwen2-VL-72B": {
"description": "Qwen2-VL-72B یک مدل زبان بصری قدرتمند است که از پردازش چندرسانهای تصویر و متن پشتیبانی میکند و میتواند محتوای تصویر را به دقت شناسایی کرده و توصیف یا پاسخهای مرتبط تولید کند."
},
"Qwen2.5-14B-Instruct": {
"description": "Qwen2.5-14B-Instruct یک مدل زبان بزرگ با 140 میلیارد پارامتر است که عملکرد عالی دارد و بهینهسازی شده برای سناریوهای چینی و چند زبانه، از کاربردهایی مانند پرسش و پاسخ هوشمند و تولید محتوا پشتیبانی میکند."
},
"Qwen2.5-32B-Instruct": {
"description": "Qwen2.5-32B-Instruct یک مدل زبان بزرگ با 320 میلیارد پارامتر است که عملکرد متوازن دارد و بهینهسازی شده برای سناریوهای چینی و چند زبانه، از کاربردهایی مانند پرسش و پاسخ هوشمند و تولید محتوا پشتیبانی میکند."
},
"Qwen2.5-72B-Instruct": {
"description": "Qwen2.5-72B-Instruct از 16k زمینه پشتیبانی میکند و قادر به تولید متنهای طولانی بیش از 8K است. این مدل از تماسهای تابع و تعامل بدون درز با سیستمهای خارجی پشتیبانی میکند و به طور قابل توجهی انعطافپذیری و گسترشپذیری را افزایش میدهد. دانش مدل به وضوح افزایش یافته و تواناییهای کدنویسی و ریاضی به طور چشمگیری بهبود یافته است و از بیش از 29 زبان پشتیبانی میکند."
},
"Qwen2.5-7B-Instruct": {
"description": "Qwen2.5-7B-Instruct یک مدل زبان بزرگ با 70 میلیارد پارامتر است که از تماسهای تابع و تعامل بینقص با سیستمهای خارجی پشتیبانی میکند و به طور قابل توجهی انعطافپذیری و مقیاسپذیری را افزایش میدهد. این مدل بهینهسازی شده برای سناریوهای چینی و چند زبانه، از کاربردهایی مانند پرسش و پاسخ هوشمند و تولید محتوا پشتیبانی میکند."
},
"Qwen2.5-Coder-14B-Instruct": {
"description": "Qwen2.5-Coder-14B-Instruct یک مدل دستور برنامهنویسی مبتنی بر پیشآموزش وسیع است که دارای تواناییهای قوی در درک و تولید کد است و میتواند به طور مؤثر به انواع وظایف برنامهنویسی رسیدگی کند، به ویژه برای نوشتن کد هوشمند، تولید اسکریپتهای خودکار و پاسخ به مسائل برنامهنویسی مناسب است."
},
"Qwen2.5-Coder-32B-Instruct": {
"description": "Qwen2.5-Coder-32B-Instruct یک مدل زبان بزرگ است که به طور خاص برای تولید کد، درک کد و سناریوهای توسعه کارآمد طراحی شده است و از مقیاس 32B پارامتر پیشرفته در صنعت بهره میبرد و میتواند نیازهای متنوع برنامهنویسی را برآورده کند."
},
"Qwen3-235B": {
"description": "Qwen3-235B-A22B، مدل MoE (متخصص ترکیبی)، حالت «استدلال ترکیبی» را معرفی کرده است که به کاربران امکان میدهد بهطور یکپارچه بین «حالت تفکر» و «حالت غیرتفکر» جابجا شوند. این مدل از درک و استدلال در ۱۱۹ زبان و گویش پشتیبانی میکند و دارای قابلیتهای قدرتمند فراخوانی ابزار است. در آزمونهای معیار مختلف از جمله تواناییهای جامع، کد نویسی و ریاضیات، چندزبانه، دانش و استدلال، این مدل میتواند با مدلهای پیشرو بازار مانند DeepSeek R1، OpenAI o1، o3-mini، Grok 3 و Google Gemini 2.5 Pro رقابت کند."
},
"Qwen3-32B": {
"description": "Qwen3-32B، مدل متراکم (Dense Model)، حالت «استدلال ترکیبی» را معرفی کرده است که به کاربران امکان میدهد بهطور یکپارچه بین «حالت تفکر» و «حالت غیرتفکر» جابجا شوند. به دلیل بهبود ساختار مدل، افزایش دادههای آموزشی و روشهای مؤثرتر آموزش، عملکرد کلی این مدل با Qwen2.5-72B قابل مقایسه است."
},
"SenseChat": {
"description": "نسخه پایه مدل (V4)، طول متن ۴K، با تواناییهای عمومی قوی"
},
"SenseChat-128K": {
"description": "نسخه پایه مدل (V4)، با طول زمینه ۱۲۸K، در وظایف درک و تولید متون طولانی عملکرد برجستهای دارد"
},
"SenseChat-32K": {
"description": "مدل نسخه پایه (V4)، طول زمینه 32K، قابل استفاده در انواع سناریوها"
},
"SenseChat-5": {
"description": "جدیدترین نسخه مدل (V5.5)، با طول زمینه 128K، بهبود قابل توجه در زمینههای استدلال ریاضی، مکالمه انگلیسی، پیروی از دستورات و درک متون طولانی، قابل مقایسه با GPT-4o"
},
"SenseChat-5-1202": {
"description": "نسخه جدید مبتنی بر V5.5 که نسبت به نسخه قبلی در تواناییهای پایهای زبانهای چینی و انگلیسی، گفتگو، دانش علوم پایه، دانش علوم انسانی، نوشتار، منطق ریاضی و کنترل تعداد کلمات بهبود قابل توجهی داشته است."
},
"SenseChat-5-Cantonese": {
"description": "طول متن 32K، در درک مکالمات به زبان کانتونی از GPT-4 پیشی میگیرد و در زمینههای مختلفی مانند دانش، استدلال، ریاضیات و برنامهنویسی با GPT-4 Turbo قابل مقایسه است."
},
"SenseChat-5-beta": {
"description": "برخی از عملکردها بهتر از SenseCat-5-1202 است"
},
"SenseChat-Character": {
"description": "نسخه استاندارد مدل، طول متن ۸۰۰۰ کاراکتر، سرعت پاسخدهی بالا"
},
"SenseChat-Character-Pro": {
"description": "مدل پیشرفته، طول متن 32K، بهبود کامل قابلیتها، پشتیبانی از مکالمه به زبانهای چینی/انگلیسی"
},
"SenseChat-Turbo": {
"description": "مناسب برای پرسش و پاسخ سریع و تنظیم دقیق مدل"
},
"SenseChat-Turbo-1202": {
"description": "این نسخه جدید مدل سبک است که به بیش از ۹۰٪ تواناییهای مدل کامل دست یافته و هزینه استنتاج را به طور قابل توجهی کاهش میدهد."
},
"SenseChat-Vision": {
"description": "مدل جدیدترین نسخه (V5.5) است که از ورودی چند تصویر پشتیبانی میکند و به طور جامع به بهینهسازی تواناییهای پایه مدل پرداخته و در شناسایی ویژگیهای اشیاء، روابط فضایی، شناسایی رویدادهای حرکتی، درک صحنه، شناسایی احساسات، استدلال منطقی و درک و تولید متن بهبودهای قابل توجهی داشته است."
},
"SenseNova-V6-5-Pro": {
"description": "با بهروزرسانی جامع دادههای چندرسانهای، زبانی و استدلالی و بهینهسازی استراتژیهای آموزش، مدل جدید پیشرفت قابل توجهی در استدلال چندرسانهای و توانایی پیروی از دستورالعملهای تعمیمیافته داشته است. این مدل از پنجره متنی تا ۱۲۸ هزار توکن پشتیبانی میکند و در وظایف تخصصی مانند OCR و شناسایی IP گردشگری و فرهنگی عملکرد برجستهای دارد."
},
"SenseNova-V6-5-Turbo": {
"description": "با بهروزرسانی جامع دادههای چندرسانهای، زبانی و استدلالی و بهینهسازی استراتژیهای آموزش، مدل جدید پیشرفت قابل توجهی در استدلال چندرسانهای و توانایی پیروی از دستورالعملهای تعمیمیافته داشته است. این مدل از پنجره متنی تا ۱۲۸ هزار توکن پشتیبانی میکند و در وظایف تخصصی مانند OCR و شناسایی IP گردشگری و فرهنگی عملکرد برجستهای دارد."
},
"SenseNova-V6-Pro": {
"description": "تحقق یکپارچگی بومی قابلیتهای تصویر، متن و ویدیو، عبور از محدودیتهای سنتی چندمدلی، و کسب دو قهرمانی در ارزیابیهای OpenCompass و SuperCLUE."
},
"SenseNova-V6-Reasoner": {
"description": "توجه به استدلال عمیق بصری و زبانی، تحقق تفکر کند و استدلال عمیق، ارائه فرآیند کامل زنجیره تفکر."
},
"SenseNova-V6-Turbo": {
"description": "تحقق یکپارچگی بومی قابلیتهای تصویر، متن و ویدیو، عبور از محدودیتهای سنتی چندمدلی، پیشی گرفتن در ابعاد اصلی مانند تواناییهای چندمدلی و زبانی، و در چندین ارزیابی در سطح اول داخلی و خارجی قرار گرفتن."
},
"Skylark2-lite-8k": {
"description": "مدل نسل دوم Skylark، مدل Skylark2-lite دارای سرعت پاسخدهی بالایی است و برای سناریوهایی که نیاز به زمان واقعی بالایی دارند و حساس به هزینه هستند و نیاز به دقت مدلی کمتری دارند مناسب است. طول پنجره متنی این مدل 8k است."
},
"Skylark2-pro-32k": {
"description": "مدل نسل دوم Skylark، مدل Skylark2-pro دارای دقت بالای مدلی است و برای سناریوهای پیچیدهتر تولید متن مانند تولید متن تخصصی، نوشتن رمان، ترجمه باکیفیت و غیره مناسب است. طول پنجره متنی این مدل 32k است."
},
"Skylark2-pro-4k": {
"description": "مدل نسل دوم Skylark، مدل Skylark2-pro دارای دقت بالای مدلی است و برای سناریوهای پیچیدهتر تولید متن مانند تولید متن تخصصی، نوشتن رمان، ترجمه باکیفیت و غیره مناسب است. طول پنجره متنی این مدل 4k است."
},
"Skylark2-pro-character-4k": {
"description": "مدل نسل دوم Skylark، مدل Skylark2-pro-character دارای قابلیتهای برجسته بازی نقش و چت است و میتواند بهطور طبیعی طبق خواستههای کاربر مختلف نقشها را ایفا کند. این مدل برای ساخت رباتهای چت، دستیاران مجازی و خدمات مشتری آنلاین مناسب است و دارای سرعت پاسخدهی بالایی است."
},
"Skylark2-pro-turbo-8k": {
"description": "مدل نسل دوم Skylark، مدل Skylark2-pro-turbo-8k دارای استنتاج سریعتر و هزینه کمتر است و طول پنجره متنی آن 8k است."
},
"THUDM/GLM-4-32B-0414": {
"description": "GLM-4-32B-0414 نسل جدید مدلهای متنباز سری GLM است که دارای 320 میلیارد پارامتر است. عملکرد این مدل میتواند با سری GPT OpenAI و سری V3/R1 DeepSeek مقایسه شود."
},
"THUDM/GLM-4-9B-0414": {
"description": "GLM-4-9B-0414 یک مدل کوچک از سری GLM است که دارای 90 میلیارد پارامتر است. این مدل ویژگیهای فنی سری GLM-4-32B را به ارث میبرد، اما گزینههای استقرار سبکتری را ارائه میدهد. با وجود اندازه کوچک، GLM-4-9B-0414 در تولید کد، طراحی وب، تولید گرافیک SVG و نوشتن مبتنی بر جستجو عملکرد فوقالعادهای دارد."
},
"THUDM/GLM-4.1V-9B-Thinking": {
"description": "GLM-4.1V-9B-Thinking یک مدل زبان تصویری متنباز (VLM) است که بهطور مشترک توسط Zhizhu AI و آزمایشگاه KEG دانشگاه تسینگهوا منتشر شده است و بهطور خاص برای پردازش وظایف شناختی چندرسانهای پیچیده طراحی شده است. این مدل بر اساس مدل پایه GLM-4-9B-0414 ساخته شده و با معرفی مکانیزم استدلال «زنجیره تفکر» (Chain-of-Thought) و استفاده از استراتژی یادگیری تقویتی، بهطور قابل توجهی توانایی استدلال چندرسانهای و پایداری آن را بهبود بخشیده است."
},
"THUDM/GLM-Z1-32B-0414": {
"description": "GLM-Z1-32B-0414 یک مدل استدلال با توانایی تفکر عمیق است. این مدل بر اساس GLM-4-32B-0414 از طریق راهاندازی سرد و یادگیری تقویتی توسعه یافته و در وظایف ریاضی، کدنویسی و منطقی آموزش بیشتری دیده است. نسبت به مدل پایه، GLM-Z1-32B-0414 تواناییهای ریاضی و حل مسائل پیچیده را بهطور قابل توجهی افزایش داده است."
},
"THUDM/GLM-Z1-9B-0414": {
"description": "GLM-Z1-9B-0414 یک مدل کوچک از سری GLM است که تنها 90 میلیارد پارامتر دارد، اما در عین حال تواناییهای شگفتانگیزی را در کنار حفظ سنت متنباز نشان میدهد. با وجود اندازه کوچک، این مدل در استدلال ریاضی و وظایف عمومی عملکرد عالی دارد و عملکرد کلی آن در میان مدلهای متنباز با اندازه مشابه در سطح بالایی قرار دارد."
},
"THUDM/GLM-Z1-Rumination-32B-0414": {
"description": "GLM-Z1-Rumination-32B-0414 یک مدل استدلال عمیق با توانایی تفکر است (که با Deep Research OpenAI مقایسه میشود). برخلاف مدلهای تفکر عمیق معمولی، این مدل از تفکر عمیق طولانیمدت برای حل مسائل باز و پیچیده استفاده میکند."
},
"THUDM/glm-4-9b-chat": {
"description": "نسخه منبع باز GLM-4 9B، تجربه گفتگوی بهینهشده برای برنامههای مکالمه را ارائه میدهد."
},
"Tongyi-Zhiwen/QwenLong-L1-32B": {
"description": "QwenLong-L1-32B نخستین مدل بزرگ استدلال با زمینه طولانی است که با یادگیری تقویتی آموزش دیده و به طور خاص برای وظایف استدلال متون طولانی بهینه شده است. این مدل با چارچوب یادگیری تقویتی توسعه تدریجی زمینه، انتقال پایدار از زمینه کوتاه به بلند را محقق ساخته است. در هفت آزمون معیار پرسش و پاسخ اسناد طولانی، QwenLong-L1-32B از مدلهای پیشرو مانند OpenAI-o3-mini و Qwen3-235B-A22B پیشی گرفته و عملکردی مشابه Claude-3.7-Sonnet-Thinking دارد. این مدل در استدلال ریاضی، استدلال منطقی و استدلال چندمرحلهای مهارت ویژهای دارد."
},
"Yi-34B-Chat": {
"description": "Yi-1.5-34B با حفظ تواناییهای زبان عمومی عالی مدلهای قبلی خود، از طریق آموزش افزایشی 500 میلیارد توکن با کیفیت بالا، به طور قابل توجهی تواناییهای منطقی ریاضی و کدنویسی را افزایش داده است."
},
"abab5.5-chat": {
"description": "برای سناریوهای بهرهوری طراحی شده است، از پردازش وظایف پیچیده و تولید متن کارآمد پشتیبانی میکند و برای کاربردهای حرفهای مناسب است."
},
"abab5.5s-chat": {
"description": "طراحی شده برای سناریوهای مکالمه با شخصیتهای چینی، ارائه توانایی تولید مکالمات با کیفیت بالا به زبان چینی، مناسب برای انواع کاربردها."
},
"abab6.5g-chat": {
"description": "طراحی شده برای مکالمات چندزبانه با شخصیتهای مختلف، پشتیبانی از تولید مکالمات با کیفیت بالا به زبان انگلیسی و سایر زبانها."
},
"abab6.5s-chat": {
"description": "مناسب برای طیف گستردهای از وظایف پردازش زبان طبیعی، از جمله تولید متن، سیستمهای گفتگو و غیره."
},
"abab6.5t-chat": {
"description": "بهینهسازی شده برای سناریوهای مکالمه با شخصیتهای چینی، ارائه توانایی تولید مکالمات روان و مطابق با عادات بیانی چینی."
},
"accounts/fireworks/models/deepseek-r1": {
"description": "DeepSeek-R1 یک مدل زبان بزرگ پیشرفته است که با یادگیری تقویتی و بهینهسازی دادههای راهاندازی سرد، عملکرد استدلال، ریاضیات و برنامهنویسی فوقالعادهای دارد."
},
"accounts/fireworks/models/deepseek-v3": {
"description": "مدل زبان قدرتمند Mixture-of-Experts (MoE) ارائه شده توسط Deepseek، با مجموع پارامترها به میزان 671B و فعالسازی 37B پارامتر برای هر نشانه."
},
"accounts/fireworks/models/llama-v3-70b-instruct": {
"description": "مدل Llama 3 70B دستورالعمل، بهطور ویژه برای مکالمات چندزبانه و درک زبان طبیعی بهینهسازی شده است و عملکردی بهتر از اکثر مدلهای رقیب دارد."
},
"accounts/fireworks/models/llama-v3-8b-instruct": {
"description": "مدل Llama 3 8B دستورالعمل، بهینهسازی شده برای مکالمه و وظایف چندزبانه، با عملکرد برجسته و کارآمد."
},
"accounts/fireworks/models/llama-v3-8b-instruct-hf": {
"description": "مدل Llama 3 8B دستورالعمل (نسخه HF)، با نتایج پیادهسازی رسمی سازگار است و از سازگاری بالا و قابلیت همکاری بین پلتفرمی برخوردار است."
},
"accounts/fireworks/models/llama-v3p1-405b-instruct": {
"description": "مدل Llama 3.1 405B دستورالعمل، با پارامترهای بسیار بزرگ، مناسب برای وظایف پیچیده و سناریوهای با بار سنگین در پیروی از دستورالعملها."
},
"accounts/fireworks/models/llama-v3p1-70b-instruct": {
"description": "مدل Llama 3.1 70B دستورالعمل، با توانایی برجسته در درک و تولید زبان طبیعی، انتخابی ایدهآل برای وظایف مکالمه و تحلیل است."
},
"accounts/fireworks/models/llama-v3p1-8b-instruct": {
"description": "مدل Llama 3.1 8B دستورالعمل، بهینهسازی شده برای مکالمات چندزبانه، قادر به پیشی گرفتن از اکثر مدلهای متنباز و بسته در معیارهای صنعتی رایج."
},
"accounts/fireworks/models/llama-v3p2-11b-vision-instruct": {
"description": "مدل استنتاج تصویر با ۱۱ میلیارد پارامتر از Meta که برای دستورالعملها تنظیم شده است. این مدل برای تشخیص بصری، استنتاج تصویر، توصیف تصویر و پاسخ به سوالات عمومی درباره تصاویر بهینهسازی شده است. این مدل قادر به درک دادههای بصری مانند نمودارها و گرافها است و با تولید توضیحات متنی از جزئیات تصاویر، فاصله بین دیداری و زبانی را پر میکند."
},
"accounts/fireworks/models/llama-v3p2-3b-instruct": {
"description": "مدل Llama 3.2 3B دستورالعمل یک مدل چندزبانه سبک است که توسط Meta ارائه شده است. این مدل با هدف بهبود کارایی طراحی شده و در مقایسه با مدلهای بزرگتر، بهبودهای قابل توجهی در تأخیر و هزینه ارائه میدهد. نمونههای کاربردی این مدل شامل بازنویسی پرسشها و دستورات و همچنین کمک به نوشتن است."
},
"accounts/fireworks/models/llama-v3p2-90b-vision-instruct": {
"description": "مدل استنتاج تصویر با 90 میلیارد پارامتر از Meta که برای دستورالعملها تنظیم شده است. این مدل برای تشخیص بصری، استنتاج تصویر، توصیف تصویر و پاسخ به سوالات عمومی در مورد تصاویر بهینهسازی شده است. این مدل قادر است دادههای بصری مانند نمودارها و گرافها را درک کند و با تولید توضیحات متنی از جزئیات تصویر، فاصله بین دیداری و زبانی را پر