@lobehub/chat
Version:
Lobe Chat - an open-source, high-performance chatbot framework that supports speech synthesis, multimodal, and extensible Function Call plugin system. Supports one-click free deployment of your private ChatGPT/LLM web application.
426 lines • 462 kB
JSON
{
"01-ai/yi-1.5-34b-chat": {
"description": "Zero One Everything، جدیدترین مدل متن باز تنظیم شده با 34 میلیارد پارامتر، که تنظیمات آن از چندین سناریوی گفتگویی پشتیبانی میکند و دادههای آموزشی با کیفیت بالا را برای همراستایی با ترجیحات انسانی فراهم میکند."
},
"01-ai/yi-1.5-9b-chat": {
"description": "Zero One Everything، جدیدترین مدل متن باز تنظیم شده با 9 میلیارد پارامتر، که تنظیمات آن از چندین سناریوی گفتگویی پشتیبانی میکند و دادههای آموزشی با کیفیت بالا را برای همراستایی با ترجیحات انسانی فراهم میکند."
},
"360/deepseek-r1": {
"description": "مدل DeepSeek-R1 نسخه 360، که در مرحله پس از آموزش بهطور گستردهای از تکنیکهای یادگیری تقویتی استفاده کرده و توانایی استدلال مدل را بهطور قابل توجهی افزایش داده است. در وظایف ریاضی، کدنویسی و استدلال زبان طبیعی، عملکردی مشابه نسخه رسمی OpenAI o1 دارد."
},
"360gpt-pro": {
"description": "360GPT Pro به عنوان یکی از اعضای مهم سری مدلهای 360 AI، با توانایی پردازش متون بهصورت کارآمد، نیازهای متنوع در زمینههای مختلف کاربردهای زبان طبیعی را برآورده میکند و از قابلیتهایی مانند درک متون طولانی و مکالمات چندمرحلهای پشتیبانی میکند."
},
"360gpt-pro-trans": {
"description": "مدل مخصوص ترجمه، بهطور عمیق بهینهسازی شده و دارای عملکرد پیشرفته در ترجمه است."
},
"360gpt-turbo": {
"description": "360GPT Turbo تواناییهای محاسباتی و مکالمهای قدرتمندی ارائه میدهد و دارای کارایی بالایی در درک و تولید معنا است. این یک راهحل ایدهآل برای دستیار هوشمند برای شرکتها و توسعهدهندگان است."
},
"360gpt-turbo-responsibility-8k": {
"description": "360GPT Turbo Responsibility 8K بر امنیت معنایی و مسئولیتپذیری تأکید دارد و بهطور ویژه برای سناریوهایی طراحی شده است که نیاز بالایی به امنیت محتوا دارند، تا دقت و پایداری تجربه کاربری را تضمین کند."
},
"360gpt2-o1": {
"description": "360gpt2-o1 از جستجوی درخت برای ساخت زنجیرههای تفکر استفاده میکند و مکانیزم بازتاب را معرفی کرده است و با استفاده از یادگیری تقویتی آموزش دیده است، این مدل توانایی خودبازتابی و اصلاح خطا را دارد."
},
"360gpt2-pro": {
"description": "360GPT2 Pro مدل پیشرفته پردازش زبان طبیعی است که توسط شرکت 360 ارائه شده است. این مدل دارای تواناییهای برجستهای در تولید و درک متن است و به ویژه در زمینه تولید و خلاقیت عملکرد فوقالعادهای دارد. همچنین قادر به انجام وظایف پیچیده تبدیل زبان و ایفای نقش میباشد."
},
"360zhinao2-o1": {
"description": "مدل 360zhinao2-o1 با استفاده از جستجوی درختی زنجیره تفکر را ایجاد کرده و مکانیزم بازتاب را معرفی کرده است و با استفاده از یادگیری تقویتی آموزش دیده است، این مدل توانایی خودبازتابی و اصلاح خطا را دارد."
},
"4.0Ultra": {
"description": "Spark Ultra قدرتمندترین نسخه از سری مدلهای بزرگ Spark است که با ارتقاء مسیر جستجوی متصل به شبکه، توانایی درک و خلاصهسازی محتوای متنی را بهبود میبخشد. این یک راهحل جامع برای افزایش بهرهوری در محیط کار و پاسخگویی دقیق به نیازها است و به عنوان یک محصول هوشمند پیشرو در صنعت شناخته میشود."
},
"AnimeSharp": {
"description": "AnimeSharp (که با نام \"4x‑AnimeSharp\" نیز شناخته میشود) یک مدل ابررزولوشن متنباز است که توسط Kim2091 بر اساس معماری ESRGAN توسعه یافته است و بر بزرگنمایی و تیزکردن تصاویر با سبک انیمه تمرکز دارد. این مدل در فوریه ۲۰۲۲ از \"4x-TextSharpV1\" تغییر نام داد و در ابتدا برای تصاویر متنی نیز کاربرد داشت اما عملکرد آن به طور قابل توجهی برای محتوای انیمه بهینه شده است."
},
"Baichuan2-Turbo": {
"description": "با استفاده از فناوری تقویت جستجو، مدل بزرگ را به دانش حوزهای و دانش کل وب متصل میکند. از آپلود انواع اسناد مانند PDF، Word و همچنین وارد کردن آدرسهای وب پشتیبانی میکند. اطلاعات بهموقع و جامع دریافت میشود و نتایج خروجی دقیق و حرفهای هستند."
},
"Baichuan3-Turbo": {
"description": "بهینهسازی شده برای سناریوهای پرتکرار سازمانی، با بهبود قابل توجه و نسبت عملکرد به هزینه بالا. در مقایسه با مدل Baichuan2، تولید محتوا ۲۰٪ بهبود یافته، پاسخ به سوالات ۱۷٪ بهتر شده و توانایی نقشآفرینی ۴۰٪ افزایش یافته است. عملکرد کلی بهتر از GPT3.5 است."
},
"Baichuan3-Turbo-128k": {
"description": "دارای پنجره متنی فوقالعاده طولانی ۱۲۸K، بهینهسازی شده برای سناریوهای پرتکرار سازمانی، با بهبود قابل توجه در عملکرد و مقرون به صرفه بودن. در مقایسه با مدل Baichuan2، ۲۰٪ بهبود در تولید محتوا، ۱۷٪ بهبود در پرسش و پاسخ دانش، و ۴۰٪ بهبود در توانایی نقشآفرینی. عملکرد کلی بهتر از GPT3.5 است."
},
"Baichuan4": {
"description": "این مدل از نظر توانایی در داخل کشور رتبه اول را دارد و در وظایف چینی مانند دانشنامه، متون طولانی و تولید محتوا از مدلهای اصلی خارجی پیشی میگیرد. همچنین دارای توانایی چندوجهی پیشرو در صنعت است و در چندین معیار ارزیابی معتبر عملکرد برجستهای دارد."
},
"Baichuan4-Air": {
"description": "توانایی مدل در کشور اول است و در وظایف چینی مانند دانشنامه، متنهای طولانی و تولید خلاقانه از مدلهای اصلی خارجی پیشی میگیرد. همچنین دارای قابلیتهای چندرسانهای پیشرفته در صنعت است و در چندین معیار ارزیابی معتبر عملکرد عالی دارد."
},
"Baichuan4-Turbo": {
"description": "توانایی مدل در کشور اول است و در وظایف چینی مانند دانشنامه، متنهای طولانی و تولید خلاقانه از مدلهای اصلی خارجی پیشی میگیرد. همچنین دارای قابلیتهای چندرسانهای پیشرفته در صنعت است و در چندین معیار ارزیابی معتبر عملکرد عالی دارد."
},
"ByteDance-Seed/Seed-OSS-36B-Instruct": {
"description": "Seed-OSS مجموعهای از مدلهای زبان بزرگ متنباز است که توسط تیم Seed شرکت بایتدنس توسعه یافتهاند و بهطور خاص برای پردازش متنهای طولانی، استدلال، عاملها (agent) و قابلیتهای عمومی طراحی شدهاند. مدل Seed-OSS-36B-Instruct در این مجموعه، یک مدل تنظیمشده با ۳۶ میلیارد پارامتر است که بهطور بومی از طول متن بسیار طولانی پشتیبانی میکند و قادر است حجم عظیمی از اسناد یا کدهای پیچیده را بهصورت یکجا پردازش کند. این مدل بهطور ویژه برای استدلال، تولید کد و وظایف عامل (مانند استفاده از ابزارها) بهینه شده و در عین حال تعادل و توانایی عمومی برجستهای را حفظ میکند. یکی از ویژگیهای برجسته این مدل، قابلیت «بودجه تفکر» است که به کاربران اجازه میدهد طول استدلال را بهصورت انعطافپذیر تنظیم کنند و بدین ترتیب کارایی استدلال در کاربردهای عملی بهطور مؤثری افزایش یابد."
},
"DeepSeek-R1": {
"description": "مدل LLM پیشرفته و کارآمد که در استدلال، ریاضیات و برنامهنویسی تخصص دارد."
},
"DeepSeek-R1-Distill-Llama-70B": {
"description": "DeepSeek R1 - مدل بزرگتر و هوشمندتر در مجموعه DeepSeek - به ساختار لاما 70B تقطیر شده است. بر اساس آزمونهای معیار و ارزیابیهای انسانی، این مدل نسبت به لاما 70B اصلی هوشمندتر است و به ویژه در وظایفی که نیاز به دقت ریاضی و واقعیات دارند، عملکرد عالی دارد."
},
"DeepSeek-R1-Distill-Qwen-1.5B": {
"description": "مدل تقطیر DeepSeek-R1 مبتنی بر Qwen2.5-Math-1.5B است که با استفاده از یادگیری تقویتی و دادههای شروع سرد عملکرد استدلال را بهینهسازی کرده و مدلهای متنباز را به روز کرده است."
},
"DeepSeek-R1-Distill-Qwen-14B": {
"description": "مدل تقطیر DeepSeek-R1 مبتنی بر Qwen2.5-14B است که با استفاده از یادگیری تقویتی و دادههای شروع سرد عملکرد استدلال را بهینهسازی کرده و مدلهای متنباز را به روز کرده است."
},
"DeepSeek-R1-Distill-Qwen-32B": {
"description": "سری DeepSeek-R1 با استفاده از یادگیری تقویتی و دادههای شروع سرد عملکرد استدلال را بهینهسازی کرده و مدلهای متنباز را به روز کرده و از سطح OpenAI-o1-mini فراتر رفته است."
},
"DeepSeek-R1-Distill-Qwen-7B": {
"description": "مدل تقطیر DeepSeek-R1 مبتنی بر Qwen2.5-Math-7B است که با استفاده از یادگیری تقویتی و دادههای شروع سرد عملکرد استدلال را بهینهسازی کرده و مدلهای متنباز را به روز کرده است."
},
"DeepSeek-V3": {
"description": "DeepSeek-V3 یک مدل MoE است که توسط شرکت DeepSeek توسعه یافته است. نتایج ارزیابیهای متعدد DeepSeek-V3 از مدلهای متن باز دیگر مانند Qwen2.5-72B و Llama-3.1-405B فراتر رفته و از نظر عملکرد با مدلهای بسته جهانی برتر مانند GPT-4o و Claude-3.5-Sonnet برابری میکند."
},
"DeepSeek-V3-1": {
"description": "DeepSeek V3.1: مدل استنتاج نسل بعدی که تواناییهای استدلال پیچیده و تفکر زنجیرهای را بهبود میبخشد و برای وظایف نیازمند تحلیل عمیق مناسب است."
},
"DeepSeek-V3-Fast": {
"description": "تأمینکننده مدل: پلتفرم sophnet. DeepSeek V3 Fast نسخهای با TPS بالا و سرعت بسیار زیاد از نسخه DeepSeek V3 0324 است، بدون کمیتسازی، با تواناییهای کد و ریاضی قویتر و پاسخدهی سریعتر!"
},
"DeepSeek-V3.1": {
"description": "DeepSeek-V3.1 حالت غیرتفکری؛ DeepSeek-V3.1 مدل استدلال ترکیبی جدیدی از DeepSeek است که از دو حالت استدلال تفکری و غیرتفکری پشتیبانی میکند و نسبت به DeepSeek-R1-0528 در حالت تفکری کارایی بالاتری دارد. پس از آموزش تکمیلی، استفاده از ابزارهای عامل و عملکرد در وظایف عامل بهطور قابل توجهی بهبود یافته است."
},
"DeepSeek-V3.1-Fast": {
"description": "DeepSeek V3.1 Fast نسخه پرسرعت و با TPS بالا از نسخه DeepSeek V3.1 است. حالت استدلال ترکیبی: با تغییر قالب گفتگو، یک مدل میتواند همزمان از حالت تفکری و غیرتفکری پشتیبانی کند. فراخوانی هوشمندتر ابزارها: با بهینهسازی پس از آموزش، عملکرد مدل در استفاده از ابزارها و وظایف عامل بهطور چشمگیری بهبود یافته است."
},
"DeepSeek-V3.1-Think": {
"description": "DeepSeek-V3.1 حالت تفکری؛ DeepSeek-V3.1 مدل استدلال ترکیبی جدیدی از DeepSeek است که از دو حالت استدلال تفکری و غیرتفکری پشتیبانی میکند و نسبت به DeepSeek-R1-0528 در حالت تفکری کارایی بالاتری دارد. پس از آموزش تکمیلی، استفاده از ابزارهای عامل و عملکرد در وظایف عامل بهطور قابل توجهی بهبود یافته است."
},
"DeepSeek-V3.2-Exp": {
"description": "DeepSeek V3.2 جدیدترین مدل عمومی منتشر شده توسط DeepSeek است که از معماری استنتاج ترکیبی پشتیبانی میکند و دارای قابلیتهای پیشرفتهتر عامل (Agent) میباشد."
},
"DeepSeek-V3.2-Exp-Think": {
"description": "حالت تفکر DeepSeek V3.2. قبل از ارائه پاسخ نهایی، مدل ابتدا یک زنجیره فکری را تولید میکند تا دقت پاسخ نهایی را افزایش دهد."
},
"Doubao-lite-128k": {
"description": "Doubao-lite دارای سرعت پاسخگویی بینظیر و نسبت قیمت به کارایی بهتر است و گزینههای انعطافپذیرتری را برای سناریوهای مختلف مشتریان ارائه میدهد. از پنجره متنی 128k برای استدلال و تنظیم دقیق پشتیبانی میکند."
},
"Doubao-lite-32k": {
"description": "Doubao-lite دارای سرعت پاسخگویی بینظیر و نسبت قیمت به کارایی بهتر است و گزینههای انعطافپذیرتری را برای سناریوهای مختلف مشتریان ارائه میدهد. از پنجره متنی 32k برای استدلال و تنظیم دقیق پشتیبانی میکند."
},
"Doubao-lite-4k": {
"description": "Doubao-lite دارای سرعت پاسخگویی بینظیر و نسبت قیمت به کارایی بهتر است و گزینههای انعطافپذیرتری را برای سناریوهای مختلف مشتریان ارائه میدهد. از پنجره متنی 4k برای استدلال و تنظیم دقیق پشتیبانی میکند."
},
"Doubao-pro-128k": {
"description": "مدل اصلی با بهترین عملکرد، مناسب برای انجام وظایف پیچیده است و در زمینههایی مانند پاسخ به سوالات مرجع، خلاصهسازی، خلق محتوا، دستهبندی متن و نقشآفرینی عملکرد بسیار خوبی دارد. از پنجره متنی 128k برای استدلال و تنظیم دقیق پشتیبانی میکند."
},
"Doubao-pro-32k": {
"description": "مدل اصلی با بهترین عملکرد، مناسب برای انجام وظایف پیچیده است و در زمینههایی مانند پاسخ به سوالات مرجع، خلاصهسازی، خلق محتوا، دستهبندی متن و نقشآفرینی عملکرد بسیار خوبی دارد. از پنجره متنی 32k برای استدلال و تنظیم دقیق پشتیبانی میکند."
},
"Doubao-pro-4k": {
"description": "مدل اصلی با بهترین عملکرد، مناسب برای انجام وظایف پیچیده است و در زمینههایی مانند پاسخ به سوالات مرجع، خلاصهسازی، خلق محتوا، دستهبندی متن و نقشآفرینی عملکرد بسیار خوبی دارد. از پنجره متنی 4k برای استدلال و تنظیم دقیق پشتیبانی میکند."
},
"DreamO": {
"description": "DreamO یک مدل تولید تصویر سفارشی متنباز است که توسط شرکت بایتدنس و دانشگاه پکن به صورت مشترک توسعه یافته است و هدف آن پشتیبانی از تولید چندوظیفهای تصویر از طریق معماری یکپارچه است. این مدل از روش مدلسازی ترکیبی کارآمد استفاده میکند و میتواند تصاویر بسیار سازگار و سفارشیشدهای را بر اساس شرایطی مانند هویت، موضوع، سبک و پسزمینه که توسط کاربر تعیین میشود، تولید کند."
},
"ERNIE-3.5-128K": {
"description": "مدل زبان بزرگ پرچمدار توسعهیافته توسط بایدو، که حجم عظیمی از متون چینی و انگلیسی را پوشش میدهد و دارای تواناییهای عمومی قدرتمندی است. این مدل میتواند نیازهای اکثر سناریوهای پرسش و پاسخ، تولید محتوا و استفاده از افزونهها را برآورده کند؛ همچنین از اتصال خودکار به افزونه جستجوی بایدو پشتیبانی میکند تا بهروز بودن اطلاعات پرسش و پاسخ را تضمین کند."
},
"ERNIE-3.5-8K": {
"description": "مدل زبان بزرگ پرچمدار توسعهیافته توسط بایدو، که حجم عظیمی از متون چینی و انگلیسی را پوشش میدهد و دارای تواناییهای عمومی قدرتمندی است. این مدل میتواند نیازهای اکثر سناریوهای پرسش و پاسخ، تولید محتوا و استفاده از افزونهها را برآورده کند؛ همچنین از اتصال خودکار به افزونه جستجوی بایدو پشتیبانی میکند تا بهروز بودن اطلاعات پرسش و پاسخ را تضمین نماید."
},
"ERNIE-3.5-8K-Preview": {
"description": "مدل زبان بزرگ پرچمدار توسعهیافته توسط بایدو، که حجم عظیمی از متون چینی و انگلیسی را پوشش میدهد و دارای تواناییهای عمومی قدرتمندی است. این مدل میتواند نیازهای اکثر سناریوهای پرسش و پاسخ، تولید محتوا و استفاده از افزونهها را برآورده کند؛ همچنین از اتصال خودکار به افزونه جستجوی بایدو پشتیبانی میکند تا بهروز بودن اطلاعات پرسش و پاسخ را تضمین کند."
},
"ERNIE-4.0-8K-Latest": {
"description": "مدل زبان بزرگ مقیاس پرچمدار توسعهیافته توسط بایدو، که نسبت به ERNIE 3.5 ارتقاء کامل در تواناییهای مدل را به ارمغان آورده است و برای وظایف پیچیده در حوزههای مختلف مناسب است؛ از اتصال خودکار به افزونه جستجوی بایدو پشتیبانی میکند و بهروزرسانی اطلاعات پرسش و پاسخ را تضمین مینماید."
},
"ERNIE-4.0-8K-Preview": {
"description": "مدل زبان بزرگ مقیاس پرچمدار توسعهیافته توسط بایدو، در مقایسه با ERNIE 3.5 ارتقاء کامل تواناییهای مدل را به ارمغان آورده و برای وظایف پیچیده در حوزههای مختلف مناسب است؛ از افزونه جستجوی بایدو پشتیبانی میکند تا اطلاعات پرسش و پاسخ بهروز بماند."
},
"ERNIE-4.0-Turbo-8K-Latest": {
"description": "مدل زبان بزرگ و پیشرفتهای که توسط بایدو توسعه یافته است، با عملکرد برجسته در زمینههای مختلف و مناسب برای وظایف پیچیده؛ از افزونه جستجوی بایدو بهطور خودکار پشتیبانی میکند تا اطلاعات بهروز را در پاسخها تضمین کند. در مقایسه با ERNIE 4.0، عملکرد بهتری دارد."
},
"ERNIE-4.0-Turbo-8K-Preview": {
"description": "مدل زبان بزرگ و پرچمدار با مقیاس فوقالعاده که توسط بایدو توسعه یافته است، با عملکرد برجسته در زمینههای مختلف و مناسب برای وظایف پیچیده؛ پشتیبانی از اتصال خودکار به افزونه جستجوی بایدو برای اطمینان از بهروز بودن اطلاعات پرسش و پاسخ. در مقایسه با ERNIE 4.0، عملکرد بهتری دارد."
},
"ERNIE-Character-8K": {
"description": "مدل زبان بزرگ عمودی توسعهیافته توسط بایدو، مناسب برای صحنههای کاربردی مانند NPCهای بازی، مکالمات پشتیبانی مشتری، و نقشآفرینی در مکالمات. سبک شخصیتها برجستهتر و یکپارچهتر است، توانایی پیروی از دستورات قویتر و عملکرد استدلالی بهینهتر است."
},
"ERNIE-Lite-Pro-128K": {
"description": "مدل زبان بزرگ سبکوزن توسعهیافته توسط بایدو، که تعادل بین عملکرد مدل عالی و کارایی استنتاج را حفظ میکند. عملکرد آن بهتر از ERNIE Lite است و برای استفاده در کارتهای شتابدهنده AI با قدرت محاسباتی پایین مناسب است."
},
"ERNIE-Speed-128K": {
"description": "مدل زبان بزرگ با عملکرد بالا که در سال 2024 توسط بایدو توسعه یافته است. این مدل دارای تواناییهای عمومی برجستهای است و به عنوان یک مدل پایه برای تنظیم دقیق در سناریوهای خاص مناسب است و همچنین از عملکرد استنتاجی بسیار خوبی برخوردار است."
},
"ERNIE-Speed-Pro-128K": {
"description": "مدل زبان بزرگ با عملکرد بالا که در سال 2024 توسط بایدو بهطور مستقل توسعه یافته است. این مدل دارای تواناییهای عمومی برجستهای است و عملکرد بهتری نسبت به ERNIE Speed دارد. مناسب برای استفاده به عنوان مدل پایه برای تنظیم دقیق و حل بهتر مسائل در سناریوهای خاص، همچنین دارای عملکرد استنتاجی بسیار عالی است."
},
"FLUX-1.1-pro": {
"description": "FLUX.1.1 Pro"
},
"FLUX.1-Kontext-dev": {
"description": "FLUX.1-Kontext-dev یک مدل تولید و ویرایش تصویر چندرسانهای است که توسط Black Forest Labs توسعه یافته و بر اساس معماری Rectified Flow Transformer ساخته شده است. این مدل با 12 میلیارد پارامتر، بر تولید، بازسازی، تقویت یا ویرایش تصاویر تحت شرایط متنی تمرکز دارد. این مدل ترکیبی از مزایای تولید کنترلشده مدلهای انتشار و قابلیت مدلسازی زمینهای ترنسفورمر است و از خروجی تصاویر با کیفیت بالا پشتیبانی میکند و در وظایفی مانند ترمیم تصویر، تکمیل تصویر و بازسازی صحنههای بصری کاربرد گسترده دارد."
},
"FLUX.1-Kontext-pro": {
"description": "FLUX.1 Kontext [pro]"
},
"FLUX.1-dev": {
"description": "FLUX.1-dev یک مدل زبان چندرسانهای متنباز است که توسط Black Forest Labs توسعه یافته و برای وظایف ترکیبی تصویر و متن بهینه شده است. این مدل بر پایه مدلهای زبان بزرگ پیشرفته مانند Mistral-7B ساخته شده و با استفاده از رمزگذار بصری طراحیشده و تنظیم دقیق چندمرحلهای دستوری، توانایی پردازش همزمان تصویر و متن و استدلال در وظایف پیچیده را دارد."
},
"Gryphe/MythoMax-L2-13b": {
"description": "MythoMax-L2 (13B) یک مدل نوآورانه است که برای کاربردهای چندرشتهای و وظایف پیچیده مناسب است."
},
"HelloMeme": {
"description": "HelloMeme یک ابزار هوش مصنوعی است که میتواند بر اساس تصاویر یا حرکاتی که شما ارائه میدهید، به طور خودکار میم، گیف یا ویدیوهای کوتاه تولید کند. این ابزار نیازی به دانش نقاشی یا برنامهنویسی ندارد و تنها با داشتن تصاویر مرجع، میتواند محتوایی زیبا، سرگرمکننده و با سبک یکپارچه برای شما بسازد."
},
"HiDream-I1-Full": {
"description": "HiDream-E1-Full یک مدل بزرگ ویرایش تصویر چندرسانهای متنباز است که توسط HiDream.ai توسعه یافته است. این مدل بر پایه معماری پیشرفته Diffusion Transformer ساخته شده و با توانایی قوی درک زبان (با LLaMA 3.1-8B-Instruct داخلی) از طریق دستورات زبان طبیعی، تولید تصویر، انتقال سبک، ویرایش موضعی و بازنقاشی محتوا را پشتیبانی میکند و دارای قابلیتهای برجسته در درک و اجرای ترکیب تصویر و متن است."
},
"HunyuanDiT-v1.2-Diffusers-Distilled": {
"description": "hunyuandit-v1.2-distilled یک مدل سبک تولید تصویر از متن است که با استفاده از تکنیک تقطیر بهینه شده و قادر است به سرعت تصاویر با کیفیت بالا تولید کند، به ویژه مناسب محیطهای با منابع محدود و وظایف تولید در زمان واقعی است."
},
"InstantCharacter": {
"description": "InstantCharacter یک مدل تولید شخصیت شخصیسازی شده بدون نیاز به تنظیم دقیق است که توسط تیم هوش مصنوعی Tencent در سال ۲۰۲۵ منتشر شده است. هدف این مدل تولید شخصیتهای با وفاداری بالا و سازگار در صحنههای مختلف است. این مدل تنها با یک تصویر مرجع قادر به مدلسازی شخصیت است و میتواند آن را به سبکها، حرکات و پسزمینههای مختلف به طور انعطافپذیر منتقل کند."
},
"InternVL2-8B": {
"description": "InternVL2-8B یک مدل زبان بصری قدرتمند است که از پردازش چند حالتی تصویر و متن پشتیبانی میکند و قادر است محتوای تصویر را به دقت شناسایی کرده و توصیف یا پاسخهای مرتبط تولید کند."
},
"InternVL2.5-26B": {
"description": "InternVL2.5-26B یک مدل زبان بصری قدرتمند است که از پردازش چند حالتی تصویر و متن پشتیبانی میکند و قادر است محتوای تصویر را به دقت شناسایی کرده و توصیف یا پاسخهای مرتبط تولید کند."
},
"Kolors": {
"description": "Kolors یک مدل تولید تصویر از متن است که توسط تیم Kolors شرکت Kuaishou توسعه یافته است. این مدل با میلیاردها پارامتر آموزش دیده و در کیفیت بصری، درک معنایی زبان چینی و رندر متن عملکرد برجستهای دارد."
},
"Kwai-Kolors/Kolors": {
"description": "Kolors یک مدل بزرگ تولید تصویر از متن مبتنی بر انتشار نهفته است که توسط تیم Kolors شرکت Kuaishou توسعه یافته است. این مدل با آموزش روی میلیاردها جفت متن-تصویر، در کیفیت بصری، دقت معنایی پیچیده و رندر کاراکترهای چینی و انگلیسی عملکرد برجستهای دارد. این مدل نه تنها از ورودیهای چینی و انگلیسی پشتیبانی میکند بلکه در درک و تولید محتوای خاص زبان چینی نیز بسیار توانمند است."
},
"Llama-3.2-11B-Vision-Instruct": {
"description": "توانایی استدلال تصویری عالی در تصاویر با وضوح بالا، مناسب برای برنامههای درک بصری."
},
"Llama-3.2-90B-Vision-Instruct\t": {
"description": "توانایی استدلال تصویری پیشرفته برای برنامههای نمایندگی درک بصری."
},
"Meta-Llama-3-3-70B-Instruct": {
"description": "Llama 3.3 70B: مدل ترنسفورمر چندمنظوره که برای مکالمه و وظایف تولید محتوا مناسب است."
},
"Meta-Llama-3.1-405B-Instruct": {
"description": "مدل متنی تنظیم شده لاما 3.1 که برای موارد مکالمه چند زبانه بهینهسازی شده و در بسیاری از مدلهای چت متن باز و بسته موجود، در معیارهای صنعتی رایج عملکرد عالی دارد."
},
"Meta-Llama-3.1-70B-Instruct": {
"description": "مدل متنی تنظیم شده لاما 3.1 که برای موارد مکالمه چند زبانه بهینهسازی شده و در بسیاری از مدلهای چت متن باز و بسته موجود، در معیارهای صنعتی رایج عملکرد عالی دارد."
},
"Meta-Llama-3.1-8B-Instruct": {
"description": "مدل متنی تنظیم شده لاما 3.1 که برای موارد مکالمه چند زبانه بهینهسازی شده و در بسیاری از مدلهای چت متن باز و بسته موجود، در معیارهای صنعتی رایج عملکرد عالی دارد."
},
"Meta-Llama-3.2-1B-Instruct": {
"description": "مدل زبان کوچک پیشرفته و پیشرفته، با قابلیت درک زبان، توانایی استدلال عالی و توانایی تولید متن."
},
"Meta-Llama-3.2-3B-Instruct": {
"description": "مدل زبان کوچک پیشرفته و پیشرفته، با قابلیت درک زبان، توانایی استدلال عالی و توانایی تولید متن."
},
"Meta-Llama-3.3-70B-Instruct": {
"description": "لاما 3.3 پیشرفتهترین مدل زبان چند زبانه و متن باز در سری لاما است که با هزینهای بسیار کم، عملکردی مشابه مدل 405B را ارائه میدهد. این مدل بر اساس ساختار ترنسفورمر طراحی شده و از طریق تنظیم دقیق نظارتی (SFT) و یادگیری تقویتی با بازخورد انسانی (RLHF) بهبود یافته است تا کارایی و ایمنی آن افزایش یابد. نسخه تنظیم شده آن به طور خاص برای مکالمات چند زبانه بهینهسازی شده و در چندین معیار صنعتی، عملکردی بهتر از بسیاری از مدلهای چت متن باز و بسته دارد. تاریخ قطع دانش آن تا دسامبر 2023 است."
},
"Meta-Llama-4-Maverick-17B-128E-Instruct-FP8": {
"description": "Llama 4 Maverick: مدل بزرگ مبتنی بر معماری Mixture-of-Experts که استراتژی فعالسازی کارآمد کارشناسان را برای عملکرد برتر در استنتاج ارائه میدهد."
},
"MiniMax-M1": {
"description": "مدل استنتاجی جدید با تحقیق و توسعه داخلی. پیشرو در جهان: زنجیره تفکر ۸۰ هزار مرحلهای × ورودی ۱ میلیون، عملکردی همتراز با برترین مدلهای بینالمللی"
},
"MiniMax-M2": {
"description": "طراحیشده برای کدنویسی کارآمد و جریان کاری عاملها (Agents)"
},
"MiniMax-Text-01": {
"description": "در سری مدلهای MiniMax-01، ما نوآوریهای جسورانهای انجام دادهایم: برای اولین بار مکانیزم توجه خطی را به طور وسیع پیادهسازی کردهایم و معماری سنتی Transformer دیگر تنها گزینه نیست. این مدل دارای 456 میلیارد پارامتر است که در یک بار فعالسازی 45.9 میلیارد است. عملکرد کلی این مدل با بهترین مدلهای خارجی برابری میکند و در عین حال میتواند به طور مؤثر به متنهای طولانی جهانی با 4 میلیون توکن رسیدگی کند، که 32 برابر GPT-4o و 20 برابر Claude-3.5-Sonnet است."
},
"MiniMaxAI/MiniMax-M1-80k": {
"description": "MiniMax-M1 یک مدل استنتاج بزرگ با وزنهای متنباز و توجه ترکیبی است که دارای ۴۵۶ میلیارد پارامتر است و هر توکن میتواند حدود ۴۵.۹ میلیارد پارامتر را فعال کند. این مدل به طور بومی از زمینه بسیار طولانی ۱ میلیون توکن پشتیبانی میکند و با مکانیزم توجه سریع، در وظایف تولید ۱۰۰ هزار توکن نسبت به DeepSeek R1، ۷۵٪ از محاسبات نقطه شناور را صرفهجویی میکند. همچنین، MiniMax-M1 از معماری MoE (متخصصان ترکیبی) بهره میبرد و با ترکیب الگوریتم CISPO و طراحی توجه ترکیبی در آموزش تقویتی کارآمد، عملکرد پیشرو در صنعت را در استنتاج ورودیهای طولانی و سناریوهای واقعی مهندسی نرمافزار ارائه میدهد."
},
"Moonshot-Kimi-K2-Instruct": {
"description": "مدل با 1 تریلیون پارامتر کل و 32 میلیارد پارامتر فعال. در میان مدلهای غیرتفکری، در دانش پیشرفته، ریاضیات و برنامهنویسی در سطح برتر قرار دارد و در وظایف عامل عمومی تخصص دارد. به طور ویژه برای وظایف نمایندگی بهینه شده است، نه تنها قادر به پاسخگویی به سوالات بلکه قادر به انجام اقدامات است. بهترین گزینه برای گفتگوهای بداهه، چت عمومی و تجربههای نمایندگی است و یک مدل واکنشی بدون نیاز به تفکر طولانی مدت محسوب میشود."
},
"NousResearch/Nous-Hermes-2-Mixtral-8x7B-DPO": {
"description": "Nous Hermes 2 - Mixtral 8x7B-DPO (46.7B) یک مدل دستورالعمل با دقت بالا است که برای محاسبات پیچیده مناسب است."
},
"OmniConsistency": {
"description": "OmniConsistency با معرفی مدلهای بزرگ Diffusion Transformers (DiTs) و دادههای سبکدار جفتشده، انسجام سبک و قابلیت تعمیم در وظایف تصویر به تصویر (Image-to-Image) را بهبود میبخشد و از افت کیفیت سبک جلوگیری میکند."
},
"Phi-3-medium-128k-instruct": {
"description": "همان مدل Phi-3-medium، اما با اندازه بزرگتر زمینه، مناسب برای RAG یا تعداد کمی از دستورات."
},
"Phi-3-medium-4k-instruct": {
"description": "یک مدل با ۱۴ میلیارد پارامتر که کیفیت آن بهتر از Phi-3-mini است و تمرکز آن بر دادههای با کیفیت بالا و فشردهسازی استدلالی است."
},
"Phi-3-mini-128k-instruct": {
"description": "مدل مشابه Phi-3-mini، اما با اندازه بزرگتر زمینه، مناسب برای RAG یا تعداد کمی از دستورات."
},
"Phi-3-mini-4k-instruct": {
"description": "کوچکترین عضو خانواده Phi-3، بهینهسازی شده برای کیفیت و تأخیر کم."
},
"Phi-3-small-128k-instruct": {
"description": "همان مدل Phi-3-small، اما با اندازه بزرگتر زمینه، مناسب برای RAG یا تعداد کمی از دستورات."
},
"Phi-3-small-8k-instruct": {
"description": "یک مدل با ۷ میلیارد پارامتر که کیفیت آن بهتر از Phi-3-mini است و تمرکز آن بر دادههای با کیفیت بالا و فشردهسازی استدلالی است."
},
"Phi-3.5-mini-instruct": {
"description": "نسخه بهروزرسانیشده مدل Phi-3-mini."
},
"Phi-3.5-vision-instrust": {
"description": "نسخه بهروزرسانیشده مدل Phi-3-vision."
},
"Pro/Qwen/Qwen2-7B-Instruct": {
"description": "Qwen2-7B-Instruct یک مدل زبانی بزرگ با تنظیم دقیق دستوری در سری Qwen2 است که اندازه پارامتر آن 7B است. این مدل بر اساس معماری Transformer ساخته شده و از تکنیکهای SwiGLU،偏置 QKV توجه و توجه گروهی استفاده میکند. این مدل قادر به پردازش ورودیهای بزرگ مقیاس است. این مدل در درک زبان، تولید، توانایی چند زبانه، کدنویسی، ریاضی و استدلال در چندین آزمون معیار عملکرد عالی دارد و از اکثر مدلهای متن باز پیشی گرفته و در برخی وظایف رقابت قابل توجهی با مدلهای اختصاصی نشان میدهد. Qwen2-7B-Instruct در چندین ارزیابی از Qwen1.5-7B-Chat پیشی گرفته و بهبود قابل توجهی در عملکرد نشان داده است."
},
"Pro/Qwen/Qwen2.5-7B-Instruct": {
"description": "Qwen2.5-7B-Instruct یکی از جدیدترین سری مدلهای زبانی بزرگ منتشر شده توسط Alibaba Cloud است. این مدل 7B در زمینههای کدنویسی و ریاضی دارای تواناییهای بهبود یافته قابل توجهی است. این مدل همچنین از پشتیبانی چند زبانه برخوردار است و بیش از 29 زبان از جمله چینی و انگلیسی را پوشش میدهد. این مدل در پیروی از دستورات، درک دادههای ساختاری و تولید خروجیهای ساختاری (به ویژه JSON) به طور قابل توجهی بهبود یافته است."
},
"Pro/Qwen/Qwen2.5-Coder-7B-Instruct": {
"description": "Qwen2.5-Coder-7B-Instruct جدیدترین نسخه از سری مدلهای زبانی بزرگ خاص کد است که توسط Alibaba Cloud منتشر شده است. این مدل بر اساس Qwen2.5 و با آموزش 5.5 تریلیون توکن، توانایی تولید کد، استدلال و اصلاح را به طور قابل توجهی افزایش داده است. این مدل نه تنها توانایی کدنویسی را تقویت کرده بلکه مزایای ریاضی و عمومی را نیز حفظ کرده است. این مدل پایهای جامعتر برای کاربردهای عملی مانند عاملهای کد فراهم میکند."
},
"Pro/Qwen/Qwen2.5-VL-7B-Instruct": {
"description": "Qwen2.5-VL عضو جدید سری Qwen است که توانایی قدرتمند درک بصری دارد. این مدل میتواند متن، نمودارها و طرحبندیهای درون تصاویر را تحلیل کند و همچنین قادر به درک ویدیوهای بلند و گرفتن رویدادهاست. این مدل میتواند استدلال کند، ابزارها را عملیاتی کند، و از چندین فرمت برای تعیین موقعیت اشیا و تولید خروجی ساختاری پشتیبانی میکند. همچنین، آن از رزولوشن و نرخ فریم پویا برای درک ویدیو بهینهسازی شده است و کارایی کدگذار بصری آن نیز افزایش یافته است."
},
"Pro/THUDM/GLM-4.1V-9B-Thinking": {
"description": "GLM-4.1V-9B-Thinking یک مدل زبان تصویری متنباز (VLM) است که بهطور مشترک توسط Zhizhu AI و آزمایشگاه KEG دانشگاه تسینگهوا منتشر شده است و بهطور خاص برای پردازش وظایف شناختی چندرسانهای پیچیده طراحی شده است. این مدل بر اساس مدل پایه GLM-4-9B-0414 ساخته شده و با معرفی مکانیزم استدلال «زنجیره تفکر» (Chain-of-Thought) و استفاده از استراتژی یادگیری تقویتی، بهطور قابل توجهی توانایی استدلال چندرسانهای و پایداری آن را بهبود بخشیده است."
},
"Pro/THUDM/glm-4-9b-chat": {
"description": "GLM-4-9B-Chat نسخه متن باز از مدلهای پیشآموزش شده سری GLM-4 است که توسط AI Zhizhu ارائه شده است. این مدل در زمینههای معنایی، ریاضی، استدلال، کد و دانش عملکرد عالی دارد. علاوه بر پشتیبانی از گفتگوی چند دور، GLM-4-9B-Chat همچنین دارای قابلیتهای پیشرفتهای مانند مرور وب، اجرای کد، فراخوانی ابزارهای سفارشی (Function Call) و استدلال متن طولانی است. این مدل از 26 زبان پشتیبانی میکند، از جمله چینی، انگلیسی، ژاپنی، کرهای و آلمانی. در چندین آزمون معیار، GLM-4-9B-Chat عملکرد عالی نشان داده است، مانند AlignBench-v2، MT-Bench، MMLU و C-Eval. این مدل از حداکثر طول زمینه 128K پشتیبانی میکند و برای تحقیقات علمی و کاربردهای تجاری مناسب است."
},
"Pro/deepseek-ai/DeepSeek-R1": {
"description": "DeepSeek-R1 یک مدل استنتاجی مبتنی بر یادگیری تقویتی (RL) است که مشکلات تکرار و خوانایی را در مدل حل میکند. قبل از RL، DeepSeek-R1 دادههای شروع سرد را معرفی کرده و عملکرد استنتاج را بهینهسازی کرده است. این مدل در وظایف ریاضی، کد و استنتاج با OpenAI-o1 عملکرد مشابهی دارد و از طریق روشهای آموزشی به دقت طراحی شده، عملکرد کلی را بهبود میبخشد."
},
"Pro/deepseek-ai/DeepSeek-R1-Distill-Qwen-7B": {
"description": "DeepSeek-R1-Distill-Qwen-7B مدلی است که بر اساس Qwen2.5-Math-7B از طریق دستیابی به دانش (Knowledge Distillation) ساخته شده است. این مدل با استفاده از 800,000 نمونه انتخابی تولید شده توسط DeepSeek-R1 آموزش داده شده و توانایی استنتاج ممتازی نشان میدهد. این مدل در چندین تست استاندارد عملکرد خوبی داشته است، از جمله دقت 92.8٪ در MATH-500، نرخ موفقیت 55.5٪ در AIME 2024 و نمره 1189 در CodeForces، که نشاندهنده تواناییهای قوی ریاضی و برنامهنویسی برای یک مدل با حجم 7B است."
},
"Pro/deepseek-ai/DeepSeek-V3": {
"description": "DeepSeek-V3 یک مدل زبان با 671 میلیارد پارامتر است که از معماری متخصصان ترکیبی (MoE) و توجه چندسر (MLA) استفاده میکند و با استراتژی تعادل بار بدون ضرر کمکی بهینهسازی کارایی استنتاج و آموزش را انجام میدهد. این مدل با پیشآموزش بر روی 14.8 تریلیون توکن با کیفیت بالا و انجام تنظیم دقیق نظارتی و یادگیری تقویتی، در عملکرد از سایر مدلهای متنباز پیشی میگیرد و به مدلهای بسته پیشرو نزدیک میشود."
},
"Pro/deepseek-ai/DeepSeek-V3.1-Terminus": {
"description": "DeepSeek-V3.1-Terminus نسخه بهروزرسانی شده مدل V3.1 منتشر شده توسط DeepSeek است که به عنوان یک مدل زبان بزرگ با عامل ترکیبی شناخته میشود. این بهروزرسانی ضمن حفظ قابلیتهای اصلی مدل، بر رفع مشکلات گزارش شده توسط کاربران و افزایش پایداری تمرکز دارد. این نسخه به طور قابل توجهی انسجام زبانی را بهبود بخشیده و از بروز ترکیب زبان چینی و انگلیسی و کاراکترهای نامتعارف کاسته است. مدل شامل حالت «تفکر» (Thinking Mode) و «غیرتفکر» (Non-thinking Mode) است که کاربران میتوانند از طریق قالبهای گفتگو به صورت انعطافپذیر بین آنها جابجا شوند تا با وظایف مختلف سازگار شوند. به عنوان یک بهینهسازی مهم، V3.1-Terminus عملکرد عامل کد (Code Agent) و عامل جستجو (Search Agent) را تقویت کرده است تا در فراخوانی ابزارها و اجرای وظایف پیچیده چندمرحلهای قابل اعتمادتر باشد."
},
"Pro/deepseek-ai/DeepSeek-V3.2-Exp": {
"description": "DeepSeek-V3.2-Exp نسخه آزمایشی V3.2 است که توسط DeepSeek منتشر شده و به عنوان گامی میانی در مسیر توسعه معماری نسل بعدی طراحی شده است. این نسخه با افزودن مکانیزم توجه پراکنده DeepSeek (DeepSeek Sparse Attention یا DSA) بر پایه V3.1-Terminus، کارایی آموزش و استنتاج در زمینههای متنی طولانی را بهبود میبخشد. همچنین بهطور ویژه برای فراخوانی ابزارها، درک اسناد بلند و استدلال چندمرحلهای بهینهسازی شده است. V3.2-Exp پلی میان تحقیق و تولید است و برای کاربرانی مناسب است که به دنبال بهرهوری بالاتر در سناریوهایی با بودجه متنی بالا هستند."
},
"Pro/moonshotai/Kimi-K2-Instruct-0905": {
"description": "Kimi K2-Instruct-0905 جدیدترین و قدرتمندترین نسخه Kimi K2 است. این مدل یک مدل زبان برتر با معماری متخصص ترکیبی (MoE) است که دارای ۱ تریلیون پارامتر کل و ۳۲ میلیارد پارامتر فعال میباشد. ویژگیهای اصلی این مدل شامل: هوش کدگذاری عامل بهبود یافته که در آزمونهای معیار عمومی و وظایف واقعی کدگذاری عامل عملکرد قابل توجهی نشان میدهد؛ تجربه کدگذاری فرانتاند بهبود یافته که از نظر زیبایی و کاربردی بودن برنامهنویسی فرانتاند پیشرفت داشته است."
},
"QwQ-32B-Preview": {
"description": "QwQ-32B-Preview یک مدل پردازش زبان طبیعی نوآورانه است که قادر به پردازش کارآمد مکالمات پیچیده و درک زمینه است."
},
"Qwen/QVQ-72B-Preview": {
"description": "QVQ-72B-Preview یک مدل تحقیقاتی است که توسط تیم Qwen توسعه یافته و بر روی تواناییهای استنتاج بصری تمرکز دارد و در درک صحنههای پیچیده و حل مسائل ریاضی مرتبط با بصری دارای مزیتهای منحصر به فردی است."
},
"Qwen/QwQ-32B": {
"description": "QwQ مدل استنتاجی از سری Qwen است. در مقایسه با مدلهای سنتی بهینهسازی دستورالعمل، QwQ دارای توانایی تفکر و استنتاج است و میتواند در وظایف پاییندستی عملکرد قابل توجهی را به ویژه در حل مسائل دشوار ارائه دهد. QwQ-32B یک مدل استنتاجی متوسط است که میتواند در مقایسه با مدلهای استنتاجی پیشرفته (مانند DeepSeek-R1، o1-mini) عملکرد رقابتی را به دست آورد. این مدل از تکنیکهایی مانند RoPE، SwiGLU، RMSNorm و Attention QKV bias استفاده میکند و دارای ساختار شبکه 64 لایه و 40 سر توجه Q (در معماری GQA، KV برابر با 8 است) میباشد."
},
"Qwen/QwQ-32B-Preview": {
"description": "QwQ-32B-Preview جدیدترین مدل تحقیقاتی تجربی Qwen است که بر بهبود توانایی استدلال AI تمرکز دارد. با کاوش در مکانیزمهای پیچیدهای مانند ترکیب زبان و استدلال بازگشتی، مزایای اصلی شامل توانایی تحلیل استدلال قوی، توانایی ریاضی و برنامهنویسی است. در عین حال، مشکلاتی مانند تغییر زبان، حلقههای استدلال، ملاحظات ایمنی و تفاوتهای دیگر در تواناییها وجود دارد."
},
"Qwen/Qwen-Image": {
"description": "Qwen-Image یک مدل پایه تولید تصویر است که توسط تیم Tongyi Qianwen شرکت علیبابا توسعه یافته و دارای ۲۰ میلیارد پارامتر میباشد. این مدل در رندر متون پیچیده و ویرایش دقیق تصاویر پیشرفتهای چشمگیری داشته و بهویژه در تولید تصاویری با متون چینی و انگلیسی با وفاداری بالا بسیار توانمند است. Qwen-Image نه تنها قادر به پردازش چیدمانهای چندخطی و متون در سطح پاراگراف است، بلکه در حین تولید تصویر، انسجام تایپوگرافی و هماهنگی با زمینه را نیز حفظ میکند. افزون بر توانایی برجسته در رندر متن، این مدل از سبکهای هنری متنوعی پشتیبانی میکند؛ از عکسهای واقعگرایانه گرفته تا زیباییشناسی انیمه، و میتواند بهطور انعطافپذیر با نیازهای مختلف خلاقانه سازگار شود. همچنین، این مدل دارای قابلیتهای قدرتمند در ویرایش و درک تصویر است و از عملیات پیشرفتهای مانند انتقال سبک، افزودن یا حذف اشیاء، تقویت جزئیات، ویرایش متن و حتی کنترل حالت بدن انسان پشتیبانی میکند. هدف آن تبدیل شدن به یک مدل پایه هوشمند و جامع برای خلق و پردازش بصری است که زبان، چیدمان و تصویر را در هم میآمیزد."
},
"Qwen/Qwen-Image-Edit-2509": {
"description": "Qwen-Image-Edit-2509 جدیدترین نسخه ویرایش تصویر از مدل Qwen-Image است که توسط تیم Tongyi Qianwen شرکت علیبابا منتشر شده است. این مدل بر پایه مدل ۲۰ میلیارد پارامتری Qwen-Image توسعه یافته و با آموزش عمیق، توانایی منحصربهفرد خود در رندر متن را به حوزه ویرایش تصویر گسترش داده و امکان ویرایش دقیق متون درون تصویر را فراهم کرده است. Qwen-Image-Edit از معماری نوآورانهای بهره میبرد که تصویر ورودی را بهطور همزمان به Qwen2.5-VL (برای کنترل معنایی بصری) و VAE Encoder (برای کنترل ظاهر بصری) ارسال میکند و بدین ترتیب توانایی ویرایش دوگانه در سطح معنا و ظاهر را فراهم میسازد. این بدان معناست که مدل نه تنها از ویرایشهای ظاهری موضعی مانند افزودن، حذف یا تغییر عناصر پشتیبانی میکند، بلکه قادر به انجام ویرایشهای معنایی پیشرفتهای مانند خلق IP، انتقال سبک و حفظ انسجام معنایی نیز میباشد. این مدل در چندین آزمون معیار عمومی عملکردی در سطح پیشرفته (SOTA) از خود نشان داده و به یک مدل پایه قدرتمند در زمینه ویرایش تصویر تبدیل شده است."
},
"Qwen/Qwen2-72B-Instruct": {
"description": "Qwen 2 Instruct (72B) دستورالعملهای دقیق برای کاربردهای سازمانی ارائه میدهد و به درستی به آنها پاسخ میدهد."
},
"Qwen/Qwen2-7B-Instruct": {
"description": "Qwen2-72B-Instruct یک مدل زبانی بزرگ با تنظیم دقیق دستوری در سری Qwen2 است که اندازه پارامتر آن 72B است. این مدل بر اساس معماری Transformer ساخته شده و از تکنیکهای SwiGLU،偏置 QKV توجه و توجه گروهی استفاده میکند. این مدل قادر به پردازش ورودیهای بزرگ مقیاس است. این مدل در درک زبان، تولید، توانایی چند زبانه، کدنویسی، ریاضی و استدلال در چندین آزمون معیار عملکرد عالی دارد و از اکثر مدلهای متن باز پیشی گرفته و در برخی وظایف رقابت قابل توجهی با مدلهای اختصاصی نشان میدهد."
},
"Qwen/Qwen2-VL-72B-Instruct": {
"description": "Qwen2-VL جدیدترین نسخه از مدل Qwen-VL است که در آزمونهای معیار درک بصری به پیشرفتهترین عملکرد دست یافته است."
},
"Qwen/Qwen2.5-14B-Instruct": {
"description": "Qwen2.5 یک سری جدید از مدلهای زبانی بزرگ است که با هدف بهینهسازی پردازش وظایف دستوری طراحی شده است."
},
"Qwen/Qwen2.5-32B-Instruct": {
"description": "Qwen2.5 یک سری جدید از مدلهای زبانی بزرگ است که با هدف بهینهسازی پردازش وظایف دستوری طراحی شده است."
},
"Qwen/Qwen2.5-72B-Instruct": {
"description": "مدل زبانی بزرگ توسعه یافته توسط تیم علیبابا، تونگyi چنوِن."
},
"Qwen/Qwen2.5-72B-Instruct-128K": {
"description": "Qwen2.5 یک سری جدید از مدلهای زبان بزرگ است که دارای تواناییهای قویتر در درک و تولید میباشد."
},
"Qwen/Qwen2.5-72B-Instruct-Turbo": {
"description": "Qwen2.5 یک سری جدید از مدلهای زبانی بزرگ است که با هدف بهینهسازی پردازش وظایف دستوری طراحی شده است."
},
"Qwen/Qwen2.5-7B-Instruct": {
"description": "Qwen2.5 یک سری جدید از مدلهای زبان بزرگ است که با هدف بهینهسازی پردازش وظایف دستوری طراحی شده است."
},
"Qwen/Qwen2.5-7B-Instruct-Turbo": {
"description": "Qwen2.5 یک سری جدید از مدلهای زبانی بزرگ است که با هدف بهینهسازی پردازش وظایف دستوری طراحی شده است."
},
"Qwen/Qwen2.5-Coder-32B-Instruct": {
"description": "Qwen2.5-Coder بر نوشتن کد تمرکز دارد."
},
"Qwen/Qwen2.5-Coder-7B-Instruct": {
"description": "Qwen2.5-Coder-7B-Instruct جدیدترین نسخه از سری مدلهای زبانی بزرگ خاص کد است که توسط Alibaba Cloud منتشر شده است. این مدل بر اساس Qwen2.5 و با آموزش 5.5 تریلیون توکن، توانایی تولید کد، استدلال و اصلاح را به طور قابل توجهی افزایش داده است. این مدل نه تنها توانایی کدنویسی را تقویت کرده بلکه مزایای ریاضی و عمومی را نیز حفظ کرده است. این مدل پایهای جامعتر برای کاربردهای عملی مانند عاملهای کد فراهم میکند."
},
"Qwen/Qwen2.5-VL-32B-Instruct": {
"description": "Qwen2.5-VL-32B-Instruct یک مدل چند حالتی از تیم Thousand Questions است که بخشی از سری Qwen2.5-VL میباشد. این مدل علاوه بر توانایی شناسایی اشیاء رایج، قادر به تحلیل متن، نمودار، نمادها، شکلها و طرحبندیهای درون تصاویر است. این مدل به عنوان یک هوش مصنوعی بصری عمل میکند، قادر به استدلال و کنترل ابزارها به صورت پویا است و توانایی استفاده از کامپیوتر و موبایل را دارد. علاوه بر این، این مدل میتواند اشیاء درون تصویر را با دقت بالا مکانیابی کند و برای فاکتورها، جداول و غیره خروجیهای ساختاریجادی تولید کند. نسبت به نسخه قبلی Qwen2-VL، این نسخه در تواناییهای ریاضی و حل مسئله از طریق یادگیری تقویتی پیشرفت کرده است و سبک پاسخگویی آن نیز بیشتر با ترجیحات انسانها هماهنگ است."
},
"Qwen/Qwen2.5-VL-72B-Instruct": {
"description": "Qwen2.5-VL مدل زبان و تصویر از سری Qwen2.5 است. این مدل در جنبههای مختلف بهبود یافته است: دارای توانایی تحلیل بصری قویتر، قادر به تشخیص اشیاء رایج، تحلیل متن، نمودارها و طرحبندی است؛ به عنوان یک عامل بصری میتواند استدلال کند و به طور پویا ابزارها را هدایت کند؛ از توانایی درک ویدیوهای طولانیتر از یک ساعت و شناسایی رویدادهای کلیدی برخوردار است؛ قادر به مکانیابی دقیق اشیاء در تصویر با تولید جعبههای مرزی یا نقاط است؛ و توانایی تولید خروجیهای ساختاریافته، به ویژه برای دادههای اسکن شده مانند فاکتورها و جداول را دارد."
},
"Qwen/Qwen3-14B": {
"description": "Qwen3 یک مدل بزرگ جدید با تواناییهای بهبود یافته است که در استدلال، عمومی، نمایندگی و چند زبانی به سطح پیشرفته صنعت دست یافته و از تغییر حالت تفکر پشتیبانی میکند."
},
"Qwen/Qwen3-235B-A22B": {
"description": "Qwen3 یک مدل بزرگ جدید با تواناییهای بهبود یافته است که در استدلال، عمومی، نمایندگی و چند زبانی به سطح پیشرفته صنعت دست یافته و از تغییر حالت تفکر پشتیبانی میکند."
},
"Qwen/Qwen3-235B-A22B-Instruct-2507": {
"description": "Qwen3-235B-A22B-Instruct-2507 یک مدل زبان بزرگ ترکیبی (MoE) پرچمدار از سری Qwen3 است که توسط تیم Tongyi Qianwen شرکت علیبابا توسعه یافته است. این مدل دارای 235 میلیارد پارامتر کل و 22 میلیارد پارامتر فعال در هر استنتاج است. نسخه بهروزشدهای از حالت غیرتفکری Qwen3-235B-A22B است که تمرکز بر بهبود قابل توجه در پیروی از دستورالعملها، استدلال منطقی، درک متن، ریاضیات، علوم، برنامهنویسی و استفاده از ابزارها دارد. همچنین پوشش دانش چندزبانه و ترجیحات کاربر در وظایف ذهنی و باز را بهبود بخشیده تا متنهای مفیدتر و با کیفیت بالاتری تولید کند."
},
"Qwen/Qwen3-235B-A22B-Thinking-2507": {
"description": "Qwen3-235B-A22B-Thinking-2507 عضوی از سری مدلهای بزرگ زبان Qwen3 است که توسط تیم Tongyi Qianwen شرکت علیبابا توسعه یافته و بر وظایف استدلال پیچیده و دشوار تمرکز دارد. این مدل بر پایه معماری MoE با 235 میلیارد پارامتر کل ساخته شده و در هر توکن حدود 22 میلیارد پارامتر فعال میکند که باعث افزایش کارایی محاسباتی در عین حفظ قدرت عملکرد میشود. به عنوان یک مدل اختصاصی \"تفکر\"، در استدلال منطقی، ریاضیات، علوم، برنامهنویسی و آزمونهای علمی که نیازمند تخصص انسانی هستند، عملکرد برجستهای دارد و در میان مدلهای تفکری متنباز در سطح برتر قرار دارد. همچنین تواناییهای عمومی مانند پیروی از دستورالعملها، استفاده از ابزار و تولید متن را تقویت کرده و به طور بومی از درک متنهای طولانی تا 256 هزار توکن پشتیبانی میکند که برای سناریوهای نیازمند استدلال عمیق و پردازش اسناد طولانی بسیار مناسب است."
},
"Qwen/Qwen3-30B-A3B": {
"description": "Qwen3 یک مدل بزرگ جدید با تواناییهای بهبود یافته است که در استدلال، عمومی، نمایندگی و چند زبانی به سطح پیشرفته صنعت دست یافته و از تغییر حالت تفکر پشتیبانی میکند."
},
"Qwen/Qwen3-30B-A3B-Instruct-2507": {
"description": "Qwen3-30B-A3B-Instruct-2507 نسخه بهروزرسانی شده مدل غیرتفکری Qwen3-30B-A3B است. این یک مدل متخصص ترکیبی (MoE) با مجموع ۳۰.۵ میلیارد پارامتر و ۳.۳ میلیارد پارامتر فعال است. این مدل در جنبههای مختلف بهبودهای کلیدی داشته است، از جمله افزایش قابل توجه در پیروی از دستورالعملها، استدلال منطقی، درک متن، ریاضیات، علوم، برنامهنویسی و استفاده از ابزارها. همچنین، پیشرفت قابل توجهی در پوشش دانش چندزبانه و تطابق بهتر با ترجیحات کاربران در وظایف ذهنی و باز دارد، که منجر به تولید پاسخهای مفیدتر و متون با کیفیت بالاتر میشود. علاوه بر این، توانایی درک متنهای بلند این مدل تا ۲۵۶ هزار توکن افزایش یافته است. این مدل فقط از حالت غیرتفکری پشتیبانی میکند و خروجی آن شامل برچسبهای `<think></think>` نخواهد بود."
},
"Qwen/Qwen3-30B-A3B-Thinking-2507": {
"description": "Qwen3-30B-A3B-Thinking-2507 توسط تیم Tongyi Qianwen شرکت علیبابا بهعنوان جدیدترین مدل «تفکر» از سری Qwen3 منتشر شده است. این مدل که یک مدل ترکیبی از متخصصان (MoE) با مجموع 30.5 میلیارد پارامتر و 3.3 میلیارد پارامتر فعالشونده است، بر ارتقای توانایی پردازش وظایف پیچیده تمرکز دارد. این مدل در معیارهای علمی نیازمند تخصص انسانی—از جمله استدلال منطقی، ریاضیات، علوم و برنامهنویسی—بهبود قابلتوجهی در عملکرد نشان داده است. همچنین توانمندیهای عمومی آن در پیروی از دستورالعملها، استفاده از ابزارها، تولید متن و همسویی با ترجیحهای انسانی نیز بهسرعت تقویت شدهاند. مدل بهطور ذاتی از درک بافتهای طولانی تا 256K پشتیبانی میکند و قابل گسترش تا 1,000,000 توکن است. این نسخه بهطور ویژه برای «حالت تفکر» طراحی شده است تا از طریق استدلال گامبهگام دقیق مسائل بسیار پیچیده را حل کند و قابلیتهای عامل (Agent) آن نیز درخشان است."
},
"Qwen/Qwen3-32B": {
"description": "Qwen3 یک مدل بزرگ جدید با تواناییهای بهبود یافته است که در استدلال، عمومی، نمایندگی و چند زبانی به سطح پیشرفته صنعت دست یافته و از تغییر حالت تفکر پشتیبانی میکند."
},
"Qwen/Qwen3-8B": {
"description": "Qwen3 یک مدل بزرگ جدید با تواناییهای بهبود یافته است که در استدلال، عمومی، نمایندگی و چند زبانی به سطح پیشرفته صنعت دست یافته و از تغییر حالت تفکر پشتیبانی میکند."
},
"Qwen/Qwen3-Coder-30B-A3B-Instruct": {
"description": "Qwen3-Coder-30B-A3B-Instruct یک مدل کدنویسی از مجموعه Qwen3 است که توسط تیم Tongyi Qianwen شرکت علیبابا توسعه یافته است. بهعنوان یک مدل پالایششده و بهینهشده، این مدل در حالی که عملکرد و کارایی بالایی را حفظ میکند، بر بهبود توانمندیهای پردازش کد متمرکز شده است. این مدل در وظایف پیچیدهای مانند برنامهنویسی عاملمحور (Agentic Coding)، خودکارسازی عملیات مرورگر و فراخوانی ابزارها، نسبت به مدلهای متنباز مزایای عملکرد چشمگیری از خود نشان میدهد. این مدل بهصورت بومی از زمینههای متنی طولانی تا 256K توکن پشتیبانی میکند و قابل گسترش تا 1M توکن است، که امکان درک و پردازش در سطح مخازن کد را بهبود میبخشد. علاوه بر این، این مدل پشتیبانی قدرتمندی برای کدنویسی عاملی در پلتفرمهایی مانند Qwen Code و CLINE فراهم میآورد و فرمت ویژهای برای فراخوانی توابع طراحی شده است."
},
"Qwen/Qwen3-Coder-480B-A35B-Instruct": {
"description": "Qwen3-Coder-480B-A35B-Instruct مدلی برای برنامهنویسی است که توسط علیبابا منتشر شده و تا کنون بیشترین قابلیتهای عاملمحور (Agentic) را داراست. این مدل یک مدل ترکیب متخصصان (Mixture of Experts - MoE) با حدود 480 میلیارد پارامتر کل و 35 میلیارد پارامتر فعال است که تعادلی میان کارایی و عملکرد برقرار میکند. این مدل بهصورت بومی از طول زمینه 256K (حدود 260 هزار) توکن پشتیبانی میکند و با استفاده از روشهای برونیابی مانند YaRN میتواند تا 1,000,000 توکن گسترش یابد، که آن را قادر میسازد مخازن کد بزرگ و وظایف پیچیده برنامهنویسی را پردازش کند. Qwen3-Coder برای جریانهای کاری کدنویسی عاملمحور طراحی شده است؛ نه تنها میتواند کد تولید کند، بلکه قادر است بهصورت خودکار با ابزارها و محیطهای توسعه تعامل نماید تا مسائل پیچیده برنامهنویسی را حل کند. در چندین بنچمارک مربوط به کدنویسی و وظایف عامل، این مدل در میان مدلهای متنباز در سطح برتر قرار گرفته و عملکرد آن با مدلهای پیشرو مانند Claude Sonnet 4 قابل مقایسه است."
},
"Qwen/Qwen3-Next-80B-A3B-Instruct": {
"description": "Qwen3-Next-80B-A3B-Instruct مدلی پایه نسل بعدی است که توسط تیم Tongyi Qianwen شرکت علیبابا منتشر شده است. این مدل بر اساس معماری جدید Qwen3-Next طراحی شده و هدف آن دستیابی به بالاترین کارایی در آموزش و استنتاج است. این مدل از مکانیزم توجه ترکیبی نوآورانه (Gated DeltaNet و Gated Attention)، ساختار متخصص ترکیبی با پراکندگی بالا (MoE) و چندین بهینهسازی برای پایداری آموزش بهره میبرد. به عنوان یک مدل پراکنده با ۸۰ میلیارد پارامتر کل، در زمان استنتاج تنها حدود ۳ میلیارد پارامتر فعال میشوند که به طور قابل توجهی هزینه محاسباتی را کاهش میدهد و در پردازش وظایف با زمینه طولانی بیش از ۳۲ هزار توکن، توان عملیاتی استنتاج آن بیش از ۱۰ برابر مدل Qwen3-32B است. این مدل نسخه تنظیم شده برای دستورالعملها است و برای وظایف عمومی طراحی شده و از حالت زنجیره فکری (Thinking) پشتیبانی نمیکند. از نظر عملکرد، در برخی بنچمارکها با مدل پرچمدار Tongyi Qianwen یعنی Qwen3-235B برابری میکند و به ویژه در وظایف با زمینه بسیار طولانی برتری قابل توجهی دارد."
},
"Qwen/Qwen3-Next-80B-A3B-Thinking": {
"description": "Qwen3-Next-80B-A3B-Thinking مدلی پایه نسل بعدی است که توسط تیم Tongyi Qianwen شرکت علیبابا برای وظایف استنتاج پیچیده طراحی شده است. این مدل بر اساس معماری نوآورانه Qwen3-Next ساخته شده که مکانیزم توجه ترکیبی (Gated DeltaNet و Gated Attention) و ساختار متخصص ترکیبی با پراکندگی بالا (MoE) را ادغام میکند تا به بالاترین کارایی در آموزش و استنتاج دست یابد. به عنوان یک مدل پراکنده با ۸۰ میلیارد پارامتر کل، در زمان استنتاج تنها حدود ۳ میلیارد پارامتر فعال میشوند که هزینه محاسباتی را به طور چشمگیری کاهش میدهد و در پردازش وظایف با زمینه طولانی بیش از ۳۲ هزار توکن، توان عملیاتی آن بیش از ۱۰ برابر مدل Qwen3-32B است. این نسخه «Thinking» به طور خاص برای انجام وظایف چندمرحلهای دشوار مانند اثبات ریاضی، ترکیب کد، تحلیل منطقی و برنامهریزی بهینه شده و به طور پیشفرض فرایند استنتاج را به صورت ساختاریافته و در قالب «زنجیره فکری» ارائه میدهد. از نظر عملکرد، این مدل نه تنها از مدلهای پرهزینهتر مانند Qwen3-32B-Thinking پیشی گرفته، بلکه در چندین بنچمارک از Gemini-2.5-Flash-Thinking نیز بهتر عمل میکند."
},
"Qwen/Qwen3-Omni-30B-A3B-Captioner": {
"description": "Qwen3-Omni-30B-A3B-Captioner یکی از مدلهای زبان تصویری (VLM) سری Qwen3 از تیم Tongyi Qianwen شرکت علیبابا است. این مدل بهطور خاص برای تولید توصیفهای تصویری با کیفیت بالا، دقیق و جزئی طراحی شده است. با بهرهگیری از معماری متخصصان ترکیبی (MoE) با ۳۰ میلیارد پارامتر کلی، این مدل توانایی درک عمیق محتوای تصویر و تبدیل آن به توصیفهای متنی روان و طبیعی را دارد. عملکرد برجستهای در زمینههایی مانند درک صحنه، شناسایی اشیاء، استنتاج روابط و ثبت جزئیات تصویری دارد و برای کاربردهایی که نیاز به درک دقیق تصویر و تولید توصیف دارند، بسیار مناسب است."
},
"Qwen/Qwen3-Omni-30B-A3B-Instruct": {
"description": "Qwen3-Omni-30B-A3B-Instruct یکی از جدیدترین مدلهای سری Qwen3 از تیم Tongyi Qianwen شرکت علیبابا است. این مدل با معماری متخصصان ترکیبی (MoE) دارای ۳۰ میلیارد پارامتر کلی و ۳ میلیارد پارامتر فعال است که در عین حفظ عملکرد قدرتمند، هزینه استنتاج را کاهش میدهد. این مدل با دادههای با کیفیت، چندمنبعی و چندزبانه آموزش دیده و توانایی عمومی بالایی دارد. از ورودیهای چندحالته شامل متن، تصویر، صوت و ویدیو پشتیبانی میکند و قادر به درک و تولید محتوای میانحالتی است."
},
"Qwen/Qwen3-Omni-30B-A3B-Thinking": {
"description": "Qwen3-Omni-30B-A3B-Thinking بخش اصلی «تفکر» (Thinker) در مدل چندحالته Qwen3-Omni است. این مدل بهطور خاص برای پردازش ورودیهای چندحالته شامل متن، صوت، تصویر و ویدیو و انجام استنتاجهای زنجیرهای پیچیده طراحی شده است. بهعنوان مغز استنتاج، این مدل تمام ورودیها را به فضای بازنمایی مشترک تبدیل میکند تا درک عمیق و استنتاج میانحالتی را ممکن سازد. با بهرهگیری از معماری MoE و ۳۰ میلیارد پارامتر کلی و ۳ میلیارد پارامتر فعال، این مدل در عین حفظ توانایی استنتاج قوی، بهرهوری محاسباتی را نیز بهینه میکند."
},
"Qwen/Qwen3-VL-235B-A22B-Instruct": {
"description": "Qwen3-VL-235B-A22B-Instruct یک مدل بزرگ تنظیمشده با دستورالعمل از سری Qwen3-VL است که بر پایه معماری متخصصان ترکیبی (MoE) ساخته شده و توانایی برجستهای در درک و تولید چندرسانهای دارد. این مدل بهصورت بومی از زمینه متنی ۲۵۶ هزار توکن پشتیبانی میکند و برای خدمات چندرسانهای در سطح تولید با همزمانی بالا مناسب است."
},
"Qwen/Qwen3-VL-235B-A22B-Thinking": {
"description": "Qwen3-VL-235B-A22B-Thinking نسخه پرچمدار تفکر از سری Qwen3-VL است که بهطور خاص برای استدلال پیچیده چندرسانهای، استدلال در زمینههای متنی طولانی و تعامل با عاملهای هوشمند بهینهسازی شده است. این مدل برای سناریوهای سازمانی که نیاز به تفکر عمیق و استدلال بصری دارند، مناسب است."
},
"Qwen/Qwen3-VL-30B-A3B-Instruct": {
"description": "Qwen3-VL-30B-A3B-Instruct نسخه تنظیمشده با دستورالعمل از سری Qwen3-VL است که توانایی بالایی در درک و تولید زبان-تصویر دارد. این مدل بهصورت بومی از زمینه متنی ۲۵۶ هزار توکن پشتیبانی میکند و برای گفتگوهای چندرسانهای و تولید محتوا بر اساس تصویر مناسب است."
},
"Qwen/Qwen3-VL-30B-A3B-Thinking": {
"description": "Qwen3-VL-30B-A3B-Thinking نسخه تقویتشده برای استدلال (Thinking) از سری Qwen3-VL است که برای وظایف استدلال چندرسانهای، تبدیل تصویر به کد و درک پیچیده بصری بهینهسازی شده است. این مدل از زمینه متنی ۲۵۶ هزار توکن پشتیبانی میکند و توانایی بالایی در تفکر زنجیرهای دارد."
},
"Qwen/Qwen3-VL-32B-Instruct": {
"description": "Qwen3-VL-32B-Instruct یک مدل زبان تصویری از تیم Tongyi Qianwen شرکت علیبابا است که در چندین