UNPKG

@lobehub/chat

Version:

Lobe Chat - an open-source, high-performance chatbot framework that supports speech synthesis, multimodal, and extensible Function Call plugin system. Supports one-click free deployment of your private ChatGPT/LLM web application.

426 lines 462 kB
{ "01-ai/yi-1.5-34b-chat": { "description": "Zero One Everything، جدیدترین مدل متن باز تنظیم شده با 34 میلیارد پارامتر، که تنظیمات آن از چندین سناریوی گفتگویی پشتیبانی می‌کند و داده‌های آموزشی با کیفیت بالا را برای هم‌راستایی با ترجیحات انسانی فراهم می‌کند." }, "01-ai/yi-1.5-9b-chat": { "description": "Zero One Everything، جدیدترین مدل متن باز تنظیم شده با 9 میلیارد پارامتر، که تنظیمات آن از چندین سناریوی گفتگویی پشتیبانی می‌کند و داده‌های آموزشی با کیفیت بالا را برای هم‌راستایی با ترجیحات انسانی فراهم می‌کند." }, "360/deepseek-r1": { "description": "مدل DeepSeek-R1 نسخه 360، که در مرحله پس از آموزش به‌طور گسترده‌ای از تکنیک‌های یادگیری تقویتی استفاده کرده و توانایی استدلال مدل را به‌طور قابل توجهی افزایش داده است. در وظایف ریاضی، کدنویسی و استدلال زبان طبیعی، عملکردی مشابه نسخه رسمی OpenAI o1 دارد." }, "360gpt-pro": { "description": "360GPT Pro به عنوان یکی از اعضای مهم سری مدل‌های 360 AI، با توانایی پردازش متون به‌صورت کارآمد، نیازهای متنوع در زمینه‌های مختلف کاربردهای زبان طبیعی را برآورده می‌کند و از قابلیت‌هایی مانند درک متون طولانی و مکالمات چندمرحله‌ای پشتیبانی می‌کند." }, "360gpt-pro-trans": { "description": "مدل مخصوص ترجمه، به‌طور عمیق بهینه‌سازی شده و دارای عملکرد پیشرفته در ترجمه است." }, "360gpt-turbo": { "description": "360GPT Turbo توانایی‌های محاسباتی و مکالمه‌ای قدرتمندی ارائه می‌دهد و دارای کارایی بالایی در درک و تولید معنا است. این یک راه‌حل ایده‌آل برای دستیار هوشمند برای شرکت‌ها و توسعه‌دهندگان است." }, "360gpt-turbo-responsibility-8k": { "description": "360GPT Turbo Responsibility 8K بر امنیت معنایی و مسئولیت‌پذیری تأکید دارد و به‌طور ویژه برای سناریوهایی طراحی شده است که نیاز بالایی به امنیت محتوا دارند، تا دقت و پایداری تجربه کاربری را تضمین کند." }, "360gpt2-o1": { "description": "360gpt2-o1 از جستجوی درخت برای ساخت زنجیره‌های تفکر استفاده می‌کند و مکانیزم بازتاب را معرفی کرده است و با استفاده از یادگیری تقویتی آموزش دیده است، این مدل توانایی خودبازتابی و اصلاح خطا را دارد." }, "360gpt2-pro": { "description": "360GPT2 Pro مدل پیشرفته پردازش زبان طبیعی است که توسط شرکت 360 ارائه شده است. این مدل دارای توانایی‌های برجسته‌ای در تولید و درک متن است و به ویژه در زمینه تولید و خلاقیت عملکرد فوق‌العاده‌ای دارد. همچنین قادر به انجام وظایف پیچیده تبدیل زبان و ایفای نقش می‌باشد." }, "360zhinao2-o1": { "description": "مدل 360zhinao2-o1 با استفاده از جستجوی درختی زنجیره تفکر را ایجاد کرده و مکانیزم بازتاب را معرفی کرده است و با استفاده از یادگیری تقویتی آموزش دیده است، این مدل توانایی خودبازتابی و اصلاح خطا را دارد." }, "4.0Ultra": { "description": "Spark Ultra قدرتمندترین نسخه از سری مدل‌های بزرگ Spark است که با ارتقاء مسیر جستجوی متصل به شبکه، توانایی درک و خلاصه‌سازی محتوای متنی را بهبود می‌بخشد. این یک راه‌حل جامع برای افزایش بهره‌وری در محیط کار و پاسخگویی دقیق به نیازها است و به عنوان یک محصول هوشمند پیشرو در صنعت شناخته می‌شود." }, "AnimeSharp": { "description": "AnimeSharp (که با نام \"4x‑AnimeSharp\" نیز شناخته می‌شود) یک مدل ابررزولوشن متن‌باز است که توسط Kim2091 بر اساس معماری ESRGAN توسعه یافته است و بر بزرگ‌نمایی و تیزکردن تصاویر با سبک انیمه تمرکز دارد. این مدل در فوریه ۲۰۲۲ از \"4x-TextSharpV1\" تغییر نام داد و در ابتدا برای تصاویر متنی نیز کاربرد داشت اما عملکرد آن به طور قابل توجهی برای محتوای انیمه بهینه شده است." }, "Baichuan2-Turbo": { "description": "با استفاده از فناوری تقویت جستجو، مدل بزرگ را به دانش حوزه‌ای و دانش کل وب متصل می‌کند. از آپلود انواع اسناد مانند PDF، Word و همچنین وارد کردن آدرس‌های وب پشتیبانی می‌کند. اطلاعات به‌موقع و جامع دریافت می‌شود و نتایج خروجی دقیق و حرفه‌ای هستند." }, "Baichuan3-Turbo": { "description": "بهینه‌سازی شده برای سناریوهای پرتکرار سازمانی، با بهبود قابل توجه و نسبت عملکرد به هزینه بالا. در مقایسه با مدل Baichuan2، تولید محتوا ۲۰٪ بهبود یافته، پاسخ به سوالات ۱۷٪ بهتر شده و توانایی نقش‌آفرینی ۴۰٪ افزایش یافته است. عملکرد کلی بهتر از GPT3.5 است." }, "Baichuan3-Turbo-128k": { "description": "دارای پنجره متنی فوق‌العاده طولانی ۱۲۸K، بهینه‌سازی شده برای سناریوهای پرتکرار سازمانی، با بهبود قابل توجه در عملکرد و مقرون به صرفه بودن. در مقایسه با مدل Baichuan2، ۲۰٪ بهبود در تولید محتوا، ۱۷٪ بهبود در پرسش و پاسخ دانش، و ۴۰٪ بهبود در توانایی نقش‌آفرینی. عملکرد کلی بهتر از GPT3.5 است." }, "Baichuan4": { "description": "این مدل از نظر توانایی در داخل کشور رتبه اول را دارد و در وظایف چینی مانند دانشنامه، متون طولانی و تولید محتوا از مدل‌های اصلی خارجی پیشی می‌گیرد. همچنین دارای توانایی چندوجهی پیشرو در صنعت است و در چندین معیار ارزیابی معتبر عملکرد برجسته‌ای دارد." }, "Baichuan4-Air": { "description": "توانایی مدل در کشور اول است و در وظایف چینی مانند دانشنامه، متن‌های طولانی و تولید خلاقانه از مدل‌های اصلی خارجی پیشی می‌گیرد. همچنین دارای قابلیت‌های چندرسانه‌ای پیشرفته در صنعت است و در چندین معیار ارزیابی معتبر عملکرد عالی دارد." }, "Baichuan4-Turbo": { "description": "توانایی مدل در کشور اول است و در وظایف چینی مانند دانشنامه، متن‌های طولانی و تولید خلاقانه از مدل‌های اصلی خارجی پیشی می‌گیرد. همچنین دارای قابلیت‌های چندرسانه‌ای پیشرفته در صنعت است و در چندین معیار ارزیابی معتبر عملکرد عالی دارد." }, "ByteDance-Seed/Seed-OSS-36B-Instruct": { "description": "Seed-OSS مجموعه‌ای از مدل‌های زبان بزرگ متن‌باز است که توسط تیم Seed شرکت بایت‌دنس توسعه یافته‌اند و به‌طور خاص برای پردازش متن‌های طولانی، استدلال، عامل‌ها (agent) و قابلیت‌های عمومی طراحی شده‌اند. مدل Seed-OSS-36B-Instruct در این مجموعه، یک مدل تنظیم‌شده با ۳۶ میلیارد پارامتر است که به‌طور بومی از طول متن بسیار طولانی پشتیبانی می‌کند و قادر است حجم عظیمی از اسناد یا کدهای پیچیده را به‌صورت یکجا پردازش کند. این مدل به‌طور ویژه برای استدلال، تولید کد و وظایف عامل (مانند استفاده از ابزارها) بهینه شده و در عین حال تعادل و توانایی عمومی برجسته‌ای را حفظ می‌کند. یکی از ویژگی‌های برجسته این مدل، قابلیت «بودجه تفکر» است که به کاربران اجازه می‌دهد طول استدلال را به‌صورت انعطاف‌پذیر تنظیم کنند و بدین ترتیب کارایی استدلال در کاربردهای عملی به‌طور مؤثری افزایش یابد." }, "DeepSeek-R1": { "description": "مدل LLM پیشرفته و کارآمد که در استدلال، ریاضیات و برنامه‌نویسی تخصص دارد." }, "DeepSeek-R1-Distill-Llama-70B": { "description": "DeepSeek R1 - مدل بزرگتر و هوشمندتر در مجموعه DeepSeek - به ساختار لاما 70B تقطیر شده است. بر اساس آزمون‌های معیار و ارزیابی‌های انسانی، این مدل نسبت به لاما 70B اصلی هوشمندتر است و به ویژه در وظایفی که نیاز به دقت ریاضی و واقعیات دارند، عملکرد عالی دارد." }, "DeepSeek-R1-Distill-Qwen-1.5B": { "description": "مدل تقطیر DeepSeek-R1 مبتنی بر Qwen2.5-Math-1.5B است که با استفاده از یادگیری تقویتی و داده‌های شروع سرد عملکرد استدلال را بهینه‌سازی کرده و مدل‌های متن‌باز را به روز کرده است." }, "DeepSeek-R1-Distill-Qwen-14B": { "description": "مدل تقطیر DeepSeek-R1 مبتنی بر Qwen2.5-14B است که با استفاده از یادگیری تقویتی و داده‌های شروع سرد عملکرد استدلال را بهینه‌سازی کرده و مدل‌های متن‌باز را به روز کرده است." }, "DeepSeek-R1-Distill-Qwen-32B": { "description": "سری DeepSeek-R1 با استفاده از یادگیری تقویتی و داده‌های شروع سرد عملکرد استدلال را بهینه‌سازی کرده و مدل‌های متن‌باز را به روز کرده و از سطح OpenAI-o1-mini فراتر رفته است." }, "DeepSeek-R1-Distill-Qwen-7B": { "description": "مدل تقطیر DeepSeek-R1 مبتنی بر Qwen2.5-Math-7B است که با استفاده از یادگیری تقویتی و داده‌های شروع سرد عملکرد استدلال را بهینه‌سازی کرده و مدل‌های متن‌باز را به روز کرده است." }, "DeepSeek-V3": { "description": "DeepSeek-V3 یک مدل MoE است که توسط شرکت DeepSeek توسعه یافته است. نتایج ارزیابی‌های متعدد DeepSeek-V3 از مدل‌های متن باز دیگر مانند Qwen2.5-72B و Llama-3.1-405B فراتر رفته و از نظر عملکرد با مدل‌های بسته جهانی برتر مانند GPT-4o و Claude-3.5-Sonnet برابری می‌کند." }, "DeepSeek-V3-1": { "description": "DeepSeek V3.1: مدل استنتاج نسل بعدی که توانایی‌های استدلال پیچیده و تفکر زنجیره‌ای را بهبود می‌بخشد و برای وظایف نیازمند تحلیل عمیق مناسب است." }, "DeepSeek-V3-Fast": { "description": "تأمین‌کننده مدل: پلتفرم sophnet. DeepSeek V3 Fast نسخه‌ای با TPS بالا و سرعت بسیار زیاد از نسخه DeepSeek V3 0324 است، بدون کمیت‌سازی، با توانایی‌های کد و ریاضی قوی‌تر و پاسخ‌دهی سریع‌تر!" }, "DeepSeek-V3.1": { "description": "DeepSeek-V3.1 حالت غیرتفکری؛ DeepSeek-V3.1 مدل استدلال ترکیبی جدیدی از DeepSeek است که از دو حالت استدلال تفکری و غیرتفکری پشتیبانی می‌کند و نسبت به DeepSeek-R1-0528 در حالت تفکری کارایی بالاتری دارد. پس از آموزش تکمیلی، استفاده از ابزارهای عامل و عملکرد در وظایف عامل به‌طور قابل توجهی بهبود یافته است." }, "DeepSeek-V3.1-Fast": { "description": "DeepSeek V3.1 Fast نسخه پرسرعت و با TPS بالا از نسخه DeepSeek V3.1 است. حالت استدلال ترکیبی: با تغییر قالب گفتگو، یک مدل می‌تواند همزمان از حالت تفکری و غیرتفکری پشتیبانی کند. فراخوانی هوشمندتر ابزارها: با بهینه‌سازی پس از آموزش، عملکرد مدل در استفاده از ابزارها و وظایف عامل به‌طور چشمگیری بهبود یافته است." }, "DeepSeek-V3.1-Think": { "description": "DeepSeek-V3.1 حالت تفکری؛ DeepSeek-V3.1 مدل استدلال ترکیبی جدیدی از DeepSeek است که از دو حالت استدلال تفکری و غیرتفکری پشتیبانی می‌کند و نسبت به DeepSeek-R1-0528 در حالت تفکری کارایی بالاتری دارد. پس از آموزش تکمیلی، استفاده از ابزارهای عامل و عملکرد در وظایف عامل به‌طور قابل توجهی بهبود یافته است." }, "DeepSeek-V3.2-Exp": { "description": "DeepSeek V3.2 جدیدترین مدل عمومی منتشر شده توسط DeepSeek است که از معماری استنتاج ترکیبی پشتیبانی می‌کند و دارای قابلیت‌های پیشرفته‌تر عامل (Agent) می‌باشد." }, "DeepSeek-V3.2-Exp-Think": { "description": "حالت تفکر DeepSeek V3.2. قبل از ارائه پاسخ نهایی، مدل ابتدا یک زنجیره فکری را تولید می‌کند تا دقت پاسخ نهایی را افزایش دهد." }, "Doubao-lite-128k": { "description": "Doubao-lite دارای سرعت پاسخگویی بی‌نظیر و نسبت قیمت به کارایی بهتر است و گزینه‌های انعطاف‌پذیرتری را برای سناریوهای مختلف مشتریان ارائه می‌دهد. از پنجره متنی 128k برای استدلال و تنظیم دقیق پشتیبانی می‌کند." }, "Doubao-lite-32k": { "description": "Doubao-lite دارای سرعت پاسخگویی بی‌نظیر و نسبت قیمت به کارایی بهتر است و گزینه‌های انعطاف‌پذیرتری را برای سناریوهای مختلف مشتریان ارائه می‌دهد. از پنجره متنی 32k برای استدلال و تنظیم دقیق پشتیبانی می‌کند." }, "Doubao-lite-4k": { "description": "Doubao-lite دارای سرعت پاسخگویی بی‌نظیر و نسبت قیمت به کارایی بهتر است و گزینه‌های انعطاف‌پذیرتری را برای سناریوهای مختلف مشتریان ارائه می‌دهد. از پنجره متنی 4k برای استدلال و تنظیم دقیق پشتیبانی می‌کند." }, "Doubao-pro-128k": { "description": "مدل اصلی با بهترین عملکرد، مناسب برای انجام وظایف پیچیده است و در زمینه‌هایی مانند پاسخ به سوالات مرجع، خلاصه‌سازی، خلق محتوا، دسته‌بندی متن و نقش‌آفرینی عملکرد بسیار خوبی دارد. از پنجره متنی 128k برای استدلال و تنظیم دقیق پشتیبانی می‌کند." }, "Doubao-pro-32k": { "description": "مدل اصلی با بهترین عملکرد، مناسب برای انجام وظایف پیچیده است و در زمینه‌هایی مانند پاسخ به سوالات مرجع، خلاصه‌سازی، خلق محتوا، دسته‌بندی متن و نقش‌آفرینی عملکرد بسیار خوبی دارد. از پنجره متنی 32k برای استدلال و تنظیم دقیق پشتیبانی می‌کند." }, "Doubao-pro-4k": { "description": "مدل اصلی با بهترین عملکرد، مناسب برای انجام وظایف پیچیده است و در زمینه‌هایی مانند پاسخ به سوالات مرجع، خلاصه‌سازی، خلق محتوا، دسته‌بندی متن و نقش‌آفرینی عملکرد بسیار خوبی دارد. از پنجره متنی 4k برای استدلال و تنظیم دقیق پشتیبانی می‌کند." }, "DreamO": { "description": "DreamO یک مدل تولید تصویر سفارشی متن‌باز است که توسط شرکت بایت‌دنس و دانشگاه پکن به صورت مشترک توسعه یافته است و هدف آن پشتیبانی از تولید چندوظیفه‌ای تصویر از طریق معماری یکپارچه است. این مدل از روش مدل‌سازی ترکیبی کارآمد استفاده می‌کند و می‌تواند تصاویر بسیار سازگار و سفارشی‌شده‌ای را بر اساس شرایطی مانند هویت، موضوع، سبک و پس‌زمینه که توسط کاربر تعیین می‌شود، تولید کند." }, "ERNIE-3.5-128K": { "description": "مدل زبان بزرگ پرچمدار توسعه‌یافته توسط بایدو، که حجم عظیمی از متون چینی و انگلیسی را پوشش می‌دهد و دارای توانایی‌های عمومی قدرتمندی است. این مدل می‌تواند نیازهای اکثر سناریوهای پرسش و پاسخ، تولید محتوا و استفاده از افزونه‌ها را برآورده کند؛ همچنین از اتصال خودکار به افزونه جستجوی بایدو پشتیبانی می‌کند تا به‌روز بودن اطلاعات پرسش و پاسخ را تضمین کند." }, "ERNIE-3.5-8K": { "description": "مدل زبان بزرگ پرچمدار توسعه‌یافته توسط بایدو، که حجم عظیمی از متون چینی و انگلیسی را پوشش می‌دهد و دارای توانایی‌های عمومی قدرتمندی است. این مدل می‌تواند نیازهای اکثر سناریوهای پرسش و پاسخ، تولید محتوا و استفاده از افزونه‌ها را برآورده کند؛ همچنین از اتصال خودکار به افزونه جستجوی بایدو پشتیبانی می‌کند تا به‌روز بودن اطلاعات پرسش و پاسخ را تضمین نماید." }, "ERNIE-3.5-8K-Preview": { "description": "مدل زبان بزرگ پرچمدار توسعه‌یافته توسط بایدو، که حجم عظیمی از متون چینی و انگلیسی را پوشش می‌دهد و دارای توانایی‌های عمومی قدرتمندی است. این مدل می‌تواند نیازهای اکثر سناریوهای پرسش و پاسخ، تولید محتوا و استفاده از افزونه‌ها را برآورده کند؛ همچنین از اتصال خودکار به افزونه جستجوی بایدو پشتیبانی می‌کند تا به‌روز بودن اطلاعات پرسش و پاسخ را تضمین کند." }, "ERNIE-4.0-8K-Latest": { "description": "مدل زبان بزرگ مقیاس پرچمدار توسعه‌یافته توسط بایدو، که نسبت به ERNIE 3.5 ارتقاء کامل در توانایی‌های مدل را به ارمغان آورده است و برای وظایف پیچیده در حوزه‌های مختلف مناسب است؛ از اتصال خودکار به افزونه جستجوی بایدو پشتیبانی می‌کند و به‌روزرسانی اطلاعات پرسش و پاسخ را تضمین می‌نماید." }, "ERNIE-4.0-8K-Preview": { "description": "مدل زبان بزرگ مقیاس پرچمدار توسعه‌یافته توسط بایدو، در مقایسه با ERNIE 3.5 ارتقاء کامل توانایی‌های مدل را به ارمغان آورده و برای وظایف پیچیده در حوزه‌های مختلف مناسب است؛ از افزونه جستجوی بایدو پشتیبانی می‌کند تا اطلاعات پرسش و پاسخ به‌روز بماند." }, "ERNIE-4.0-Turbo-8K-Latest": { "description": "مدل زبان بزرگ و پیشرفته‌ای که توسط بایدو توسعه یافته است، با عملکرد برجسته در زمینه‌های مختلف و مناسب برای وظایف پیچیده؛ از افزونه جستجوی بایدو به‌طور خودکار پشتیبانی می‌کند تا اطلاعات به‌روز را در پاسخ‌ها تضمین کند. در مقایسه با ERNIE 4.0، عملکرد بهتری دارد." }, "ERNIE-4.0-Turbo-8K-Preview": { "description": "مدل زبان بزرگ و پرچمدار با مقیاس فوق‌العاده که توسط بایدو توسعه یافته است، با عملکرد برجسته در زمینه‌های مختلف و مناسب برای وظایف پیچیده؛ پشتیبانی از اتصال خودکار به افزونه جستجوی بایدو برای اطمینان از به‌روز بودن اطلاعات پرسش و پاسخ. در مقایسه با ERNIE 4.0، عملکرد بهتری دارد." }, "ERNIE-Character-8K": { "description": "مدل زبان بزرگ عمودی توسعه‌یافته توسط بایدو، مناسب برای صحنه‌های کاربردی مانند NPCهای بازی، مکالمات پشتیبانی مشتری، و نقش‌آفرینی در مکالمات. سبک شخصیت‌ها برجسته‌تر و یکپارچه‌تر است، توانایی پیروی از دستورات قوی‌تر و عملکرد استدلالی بهینه‌تر است." }, "ERNIE-Lite-Pro-128K": { "description": "مدل زبان بزرگ سبک‌وزن توسعه‌یافته توسط بایدو، که تعادل بین عملکرد مدل عالی و کارایی استنتاج را حفظ می‌کند. عملکرد آن بهتر از ERNIE Lite است و برای استفاده در کارت‌های شتاب‌دهنده AI با قدرت محاسباتی پایین مناسب است." }, "ERNIE-Speed-128K": { "description": "مدل زبان بزرگ با عملکرد بالا که در سال 2024 توسط بایدو توسعه یافته است. این مدل دارای توانایی‌های عمومی برجسته‌ای است و به عنوان یک مدل پایه برای تنظیم دقیق در سناریوهای خاص مناسب است و همچنین از عملکرد استنتاجی بسیار خوبی برخوردار است." }, "ERNIE-Speed-Pro-128K": { "description": "مدل زبان بزرگ با عملکرد بالا که در سال 2024 توسط بایدو به‌طور مستقل توسعه یافته است. این مدل دارای توانایی‌های عمومی برجسته‌ای است و عملکرد بهتری نسبت به ERNIE Speed دارد. مناسب برای استفاده به عنوان مدل پایه برای تنظیم دقیق و حل بهتر مسائل در سناریوهای خاص، همچنین دارای عملکرد استنتاجی بسیار عالی است." }, "FLUX-1.1-pro": { "description": "FLUX.1.1 Pro" }, "FLUX.1-Kontext-dev": { "description": "FLUX.1-Kontext-dev یک مدل تولید و ویرایش تصویر چندرسانه‌ای است که توسط Black Forest Labs توسعه یافته و بر اساس معماری Rectified Flow Transformer ساخته شده است. این مدل با 12 میلیارد پارامتر، بر تولید، بازسازی، تقویت یا ویرایش تصاویر تحت شرایط متنی تمرکز دارد. این مدل ترکیبی از مزایای تولید کنترل‌شده مدل‌های انتشار و قابلیت مدل‌سازی زمینه‌ای ترنسفورمر است و از خروجی تصاویر با کیفیت بالا پشتیبانی می‌کند و در وظایفی مانند ترمیم تصویر، تکمیل تصویر و بازسازی صحنه‌های بصری کاربرد گسترده دارد." }, "FLUX.1-Kontext-pro": { "description": "FLUX.1 Kontext [pro]" }, "FLUX.1-dev": { "description": "FLUX.1-dev یک مدل زبان چندرسانه‌ای متن‌باز است که توسط Black Forest Labs توسعه یافته و برای وظایف ترکیبی تصویر و متن بهینه شده است. این مدل بر پایه مدل‌های زبان بزرگ پیشرفته مانند Mistral-7B ساخته شده و با استفاده از رمزگذار بصری طراحی‌شده و تنظیم دقیق چندمرحله‌ای دستوری، توانایی پردازش همزمان تصویر و متن و استدلال در وظایف پیچیده را دارد." }, "Gryphe/MythoMax-L2-13b": { "description": "MythoMax-L2 (13B) یک مدل نوآورانه است که برای کاربردهای چندرشته‌ای و وظایف پیچیده مناسب است." }, "HelloMeme": { "description": "HelloMeme یک ابزار هوش مصنوعی است که می‌تواند بر اساس تصاویر یا حرکاتی که شما ارائه می‌دهید، به طور خودکار میم، گیف یا ویدیوهای کوتاه تولید کند. این ابزار نیازی به دانش نقاشی یا برنامه‌نویسی ندارد و تنها با داشتن تصاویر مرجع، می‌تواند محتوایی زیبا، سرگرم‌کننده و با سبک یکپارچه برای شما بسازد." }, "HiDream-I1-Full": { "description": "HiDream-E1-Full یک مدل بزرگ ویرایش تصویر چندرسانه‌ای متن‌باز است که توسط HiDream.ai توسعه یافته است. این مدل بر پایه معماری پیشرفته Diffusion Transformer ساخته شده و با توانایی قوی درک زبان (با LLaMA 3.1-8B-Instruct داخلی) از طریق دستورات زبان طبیعی، تولید تصویر، انتقال سبک، ویرایش موضعی و بازنقاشی محتوا را پشتیبانی می‌کند و دارای قابلیت‌های برجسته در درک و اجرای ترکیب تصویر و متن است." }, "HunyuanDiT-v1.2-Diffusers-Distilled": { "description": "hunyuandit-v1.2-distilled یک مدل سبک تولید تصویر از متن است که با استفاده از تکنیک تقطیر بهینه شده و قادر است به سرعت تصاویر با کیفیت بالا تولید کند، به ویژه مناسب محیط‌های با منابع محدود و وظایف تولید در زمان واقعی است." }, "InstantCharacter": { "description": "InstantCharacter یک مدل تولید شخصیت شخصی‌سازی شده بدون نیاز به تنظیم دقیق است که توسط تیم هوش مصنوعی Tencent در سال ۲۰۲۵ منتشر شده است. هدف این مدل تولید شخصیت‌های با وفاداری بالا و سازگار در صحنه‌های مختلف است. این مدل تنها با یک تصویر مرجع قادر به مدل‌سازی شخصیت است و می‌تواند آن را به سبک‌ها، حرکات و پس‌زمینه‌های مختلف به طور انعطاف‌پذیر منتقل کند." }, "InternVL2-8B": { "description": "InternVL2-8B یک مدل زبان بصری قدرتمند است که از پردازش چند حالتی تصویر و متن پشتیبانی می‌کند و قادر است محتوای تصویر را به دقت شناسایی کرده و توصیف یا پاسخ‌های مرتبط تولید کند." }, "InternVL2.5-26B": { "description": "InternVL2.5-26B یک مدل زبان بصری قدرتمند است که از پردازش چند حالتی تصویر و متن پشتیبانی می‌کند و قادر است محتوای تصویر را به دقت شناسایی کرده و توصیف یا پاسخ‌های مرتبط تولید کند." }, "Kolors": { "description": "Kolors یک مدل تولید تصویر از متن است که توسط تیم Kolors شرکت Kuaishou توسعه یافته است. این مدل با میلیاردها پارامتر آموزش دیده و در کیفیت بصری، درک معنایی زبان چینی و رندر متن عملکرد برجسته‌ای دارد." }, "Kwai-Kolors/Kolors": { "description": "Kolors یک مدل بزرگ تولید تصویر از متن مبتنی بر انتشار نهفته است که توسط تیم Kolors شرکت Kuaishou توسعه یافته است. این مدل با آموزش روی میلیاردها جفت متن-تصویر، در کیفیت بصری، دقت معنایی پیچیده و رندر کاراکترهای چینی و انگلیسی عملکرد برجسته‌ای دارد. این مدل نه تنها از ورودی‌های چینی و انگلیسی پشتیبانی می‌کند بلکه در درک و تولید محتوای خاص زبان چینی نیز بسیار توانمند است." }, "Llama-3.2-11B-Vision-Instruct": { "description": "توانایی استدلال تصویری عالی در تصاویر با وضوح بالا، مناسب برای برنامه‌های درک بصری." }, "Llama-3.2-90B-Vision-Instruct\t": { "description": "توانایی استدلال تصویری پیشرفته برای برنامه‌های نمایندگی درک بصری." }, "Meta-Llama-3-3-70B-Instruct": { "description": "Llama 3.3 70B: مدل ترنسفورمر چندمنظوره که برای مکالمه و وظایف تولید محتوا مناسب است." }, "Meta-Llama-3.1-405B-Instruct": { "description": "مدل متنی تنظیم شده لاما 3.1 که برای موارد مکالمه چند زبانه بهینه‌سازی شده و در بسیاری از مدل‌های چت متن باز و بسته موجود، در معیارهای صنعتی رایج عملکرد عالی دارد." }, "Meta-Llama-3.1-70B-Instruct": { "description": "مدل متنی تنظیم شده لاما 3.1 که برای موارد مکالمه چند زبانه بهینه‌سازی شده و در بسیاری از مدل‌های چت متن باز و بسته موجود، در معیارهای صنعتی رایج عملکرد عالی دارد." }, "Meta-Llama-3.1-8B-Instruct": { "description": "مدل متنی تنظیم شده لاما 3.1 که برای موارد مکالمه چند زبانه بهینه‌سازی شده و در بسیاری از مدل‌های چت متن باز و بسته موجود، در معیارهای صنعتی رایج عملکرد عالی دارد." }, "Meta-Llama-3.2-1B-Instruct": { "description": "مدل زبان کوچک پیشرفته و پیشرفته، با قابلیت درک زبان، توانایی استدلال عالی و توانایی تولید متن." }, "Meta-Llama-3.2-3B-Instruct": { "description": "مدل زبان کوچک پیشرفته و پیشرفته، با قابلیت درک زبان، توانایی استدلال عالی و توانایی تولید متن." }, "Meta-Llama-3.3-70B-Instruct": { "description": "لاما 3.3 پیشرفته‌ترین مدل زبان چند زبانه و متن باز در سری لاما است که با هزینه‌ای بسیار کم، عملکردی مشابه مدل 405B را ارائه می‌دهد. این مدل بر اساس ساختار ترنسفورمر طراحی شده و از طریق تنظیم دقیق نظارتی (SFT) و یادگیری تقویتی با بازخورد انسانی (RLHF) بهبود یافته است تا کارایی و ایمنی آن افزایش یابد. نسخه تنظیم شده آن به طور خاص برای مکالمات چند زبانه بهینه‌سازی شده و در چندین معیار صنعتی، عملکردی بهتر از بسیاری از مدل‌های چت متن باز و بسته دارد. تاریخ قطع دانش آن تا دسامبر 2023 است." }, "Meta-Llama-4-Maverick-17B-128E-Instruct-FP8": { "description": "Llama 4 Maverick: مدل بزرگ مبتنی بر معماری Mixture-of-Experts که استراتژی فعال‌سازی کارآمد کارشناسان را برای عملکرد برتر در استنتاج ارائه می‌دهد." }, "MiniMax-M1": { "description": "مدل استنتاجی جدید با تحقیق و توسعه داخلی. پیشرو در جهان: زنجیره تفکر ۸۰ هزار مرحله‌ای × ورودی ۱ میلیون، عملکردی هم‌تراز با برترین مدل‌های بین‌المللی" }, "MiniMax-M2": { "description": "طراحی‌شده برای کدنویسی کارآمد و جریان کاری عامل‌ها (Agents)" }, "MiniMax-Text-01": { "description": "در سری مدل‌های MiniMax-01، ما نوآوری‌های جسورانه‌ای انجام داده‌ایم: برای اولین بار مکانیزم توجه خطی را به طور وسیع پیاده‌سازی کرده‌ایم و معماری سنتی Transformer دیگر تنها گزینه نیست. این مدل دارای 456 میلیارد پارامتر است که در یک بار فعال‌سازی 45.9 میلیارد است. عملکرد کلی این مدل با بهترین مدل‌های خارجی برابری می‌کند و در عین حال می‌تواند به طور مؤثر به متن‌های طولانی جهانی با 4 میلیون توکن رسیدگی کند، که 32 برابر GPT-4o و 20 برابر Claude-3.5-Sonnet است." }, "MiniMaxAI/MiniMax-M1-80k": { "description": "MiniMax-M1 یک مدل استنتاج بزرگ با وزن‌های متن‌باز و توجه ترکیبی است که دارای ۴۵۶ میلیارد پارامتر است و هر توکن می‌تواند حدود ۴۵.۹ میلیارد پارامتر را فعال کند. این مدل به طور بومی از زمینه بسیار طولانی ۱ میلیون توکن پشتیبانی می‌کند و با مکانیزم توجه سریع، در وظایف تولید ۱۰۰ هزار توکن نسبت به DeepSeek R1، ۷۵٪ از محاسبات نقطه شناور را صرفه‌جویی می‌کند. همچنین، MiniMax-M1 از معماری MoE (متخصصان ترکیبی) بهره می‌برد و با ترکیب الگوریتم CISPO و طراحی توجه ترکیبی در آموزش تقویتی کارآمد، عملکرد پیشرو در صنعت را در استنتاج ورودی‌های طولانی و سناریوهای واقعی مهندسی نرم‌افزار ارائه می‌دهد." }, "Moonshot-Kimi-K2-Instruct": { "description": "مدل با 1 تریلیون پارامتر کل و 32 میلیارد پارامتر فعال. در میان مدل‌های غیرتفکری، در دانش پیشرفته، ریاضیات و برنامه‌نویسی در سطح برتر قرار دارد و در وظایف عامل عمومی تخصص دارد. به طور ویژه برای وظایف نمایندگی بهینه شده است، نه تنها قادر به پاسخگویی به سوالات بلکه قادر به انجام اقدامات است. بهترین گزینه برای گفتگوهای بداهه، چت عمومی و تجربه‌های نمایندگی است و یک مدل واکنشی بدون نیاز به تفکر طولانی مدت محسوب می‌شود." }, "NousResearch/Nous-Hermes-2-Mixtral-8x7B-DPO": { "description": "Nous Hermes 2 - Mixtral 8x7B-DPO (46.7B) یک مدل دستورالعمل با دقت بالا است که برای محاسبات پیچیده مناسب است." }, "OmniConsistency": { "description": "OmniConsistency با معرفی مدل‌های بزرگ Diffusion Transformers (DiTs) و داده‌های سبک‌دار جفت‌شده، انسجام سبک و قابلیت تعمیم در وظایف تصویر به تصویر (Image-to-Image) را بهبود می‌بخشد و از افت کیفیت سبک جلوگیری می‌کند." }, "Phi-3-medium-128k-instruct": { "description": "همان مدل Phi-3-medium، اما با اندازه بزرگتر زمینه، مناسب برای RAG یا تعداد کمی از دستورات." }, "Phi-3-medium-4k-instruct": { "description": "یک مدل با ۱۴ میلیارد پارامتر که کیفیت آن بهتر از Phi-3-mini است و تمرکز آن بر داده‌های با کیفیت بالا و فشرده‌سازی استدلالی است." }, "Phi-3-mini-128k-instruct": { "description": "مدل مشابه Phi-3-mini، اما با اندازه بزرگتر زمینه، مناسب برای RAG یا تعداد کمی از دستورات." }, "Phi-3-mini-4k-instruct": { "description": "کوچک‌ترین عضو خانواده Phi-3، بهینه‌سازی شده برای کیفیت و تأخیر کم." }, "Phi-3-small-128k-instruct": { "description": "همان مدل Phi-3-small، اما با اندازه بزرگتر زمینه، مناسب برای RAG یا تعداد کمی از دستورات." }, "Phi-3-small-8k-instruct": { "description": "یک مدل با ۷ میلیارد پارامتر که کیفیت آن بهتر از Phi-3-mini است و تمرکز آن بر داده‌های با کیفیت بالا و فشرده‌سازی استدلالی است." }, "Phi-3.5-mini-instruct": { "description": "نسخه به‌روزرسانی‌شده مدل Phi-3-mini." }, "Phi-3.5-vision-instrust": { "description": "نسخه به‌روزرسانی‌شده مدل Phi-3-vision." }, "Pro/Qwen/Qwen2-7B-Instruct": { "description": "Qwen2-7B-Instruct یک مدل زبانی بزرگ با تنظیم دقیق دستوری در سری Qwen2 است که اندازه پارامتر آن 7B است. این مدل بر اساس معماری Transformer ساخته شده و از تکنیک‌های SwiGLU،偏置 QKV توجه و توجه گروهی استفاده می‌کند. این مدل قادر به پردازش ورودی‌های بزرگ مقیاس است. این مدل در درک زبان، تولید، توانایی چند زبانه، کدنویسی، ریاضی و استدلال در چندین آزمون معیار عملکرد عالی دارد و از اکثر مدل‌های متن باز پیشی گرفته و در برخی وظایف رقابت قابل توجهی با مدل‌های اختصاصی نشان می‌دهد. Qwen2-7B-Instruct در چندین ارزیابی از Qwen1.5-7B-Chat پیشی گرفته و بهبود قابل توجهی در عملکرد نشان داده است." }, "Pro/Qwen/Qwen2.5-7B-Instruct": { "description": "Qwen2.5-7B-Instruct یکی از جدیدترین سری مدل‌های زبانی بزرگ منتشر شده توسط Alibaba Cloud است. این مدل 7B در زمینه‌های کدنویسی و ریاضی دارای توانایی‌های بهبود یافته قابل توجهی است. این مدل همچنین از پشتیبانی چند زبانه برخوردار است و بیش از 29 زبان از جمله چینی و انگلیسی را پوشش می‌دهد. این مدل در پیروی از دستورات، درک داده‌های ساختاری و تولید خروجی‌های ساختاری (به ویژه JSON) به طور قابل توجهی بهبود یافته است." }, "Pro/Qwen/Qwen2.5-Coder-7B-Instruct": { "description": "Qwen2.5-Coder-7B-Instruct جدیدترین نسخه از سری مدل‌های زبانی بزرگ خاص کد است که توسط Alibaba Cloud منتشر شده است. این مدل بر اساس Qwen2.5 و با آموزش 5.5 تریلیون توکن، توانایی تولید کد، استدلال و اصلاح را به طور قابل توجهی افزایش داده است. این مدل نه تنها توانایی کدنویسی را تقویت کرده بلکه مزایای ریاضی و عمومی را نیز حفظ کرده است. این مدل پایه‌ای جامع‌تر برای کاربردهای عملی مانند عامل‌های کد فراهم می‌کند." }, "Pro/Qwen/Qwen2.5-VL-7B-Instruct": { "description": "Qwen2.5-VL عضو جدید سری Qwen است که توانایی قدرتمند درک بصری دارد. این مدل می‌تواند متن، نمودارها و طرح‌بندی‌های درون تصاویر را تحلیل کند و همچنین قادر به درک ویدیوهای بلند و گرفتن رویدادهاست. این مدل می‌تواند استدلال کند، ابزارها را عملیاتی کند، و از چندین فرمت برای تعیین موقعیت اشیا و تولید خروجی ساختاری پشتیبانی می‌کند. همچنین، آن از رزولوشن و نرخ فریم پویا برای درک ویدیو بهینه‌سازی شده است و کارایی کدگذار بصری آن نیز افزایش یافته است." }, "Pro/THUDM/GLM-4.1V-9B-Thinking": { "description": "GLM-4.1V-9B-Thinking یک مدل زبان تصویری متن‌باز (VLM) است که به‌طور مشترک توسط Zhizhu AI و آزمایشگاه KEG دانشگاه تسینگ‌هوا منتشر شده است و به‌طور خاص برای پردازش وظایف شناختی چندرسانه‌ای پیچیده طراحی شده است. این مدل بر اساس مدل پایه GLM-4-9B-0414 ساخته شده و با معرفی مکانیزم استدلال «زنجیره تفکر» (Chain-of-Thought) و استفاده از استراتژی یادگیری تقویتی، به‌طور قابل توجهی توانایی استدلال چندرسانه‌ای و پایداری آن را بهبود بخشیده است." }, "Pro/THUDM/glm-4-9b-chat": { "description": "GLM-4-9B-Chat نسخه متن باز از مدل‌های پیش‌آموزش شده سری GLM-4 است که توسط AI Zhizhu ارائه شده است. این مدل در زمینه‌های معنایی، ریاضی، استدلال، کد و دانش عملکرد عالی دارد. علاوه بر پشتیبانی از گفتگوی چند دور، GLM-4-9B-Chat همچنین دارای قابلیت‌های پیشرفته‌ای مانند مرور وب، اجرای کد، فراخوانی ابزارهای سفارشی (Function Call) و استدلال متن طولانی است. این مدل از 26 زبان پشتیبانی می‌کند، از جمله چینی، انگلیسی، ژاپنی، کره‌ای و آلمانی. در چندین آزمون معیار، GLM-4-9B-Chat عملکرد عالی نشان داده است، مانند AlignBench-v2، MT-Bench، MMLU و C-Eval. این مدل از حداکثر طول زمینه 128K پشتیبانی می‌کند و برای تحقیقات علمی و کاربردهای تجاری مناسب است." }, "Pro/deepseek-ai/DeepSeek-R1": { "description": "DeepSeek-R1 یک مدل استنتاجی مبتنی بر یادگیری تقویتی (RL) است که مشکلات تکرار و خوانایی را در مدل حل می‌کند. قبل از RL، DeepSeek-R1 داده‌های شروع سرد را معرفی کرده و عملکرد استنتاج را بهینه‌سازی کرده است. این مدل در وظایف ریاضی، کد و استنتاج با OpenAI-o1 عملکرد مشابهی دارد و از طریق روش‌های آموزشی به دقت طراحی شده، عملکرد کلی را بهبود می‌بخشد." }, "Pro/deepseek-ai/DeepSeek-R1-Distill-Qwen-7B": { "description": "DeepSeek-R1-Distill-Qwen-7B مدلی است که بر اساس Qwen2.5-Math-7B از طریق دستیابی به دانش (Knowledge Distillation) ساخته شده است. این مدل با استفاده از 800,000 نمونه انتخابی تولید شده توسط DeepSeek-R1 آموزش داده شده و توانایی استنتاج ممتازی نشان می‌دهد. این مدل در چندین تست استاندارد عملکرد خوبی داشته است، از جمله دقت 92.8٪ در MATH-500، نرخ موفقیت 55.5٪ در AIME 2024 و نمره 1189 در CodeForces، که نشان‌دهنده توانایی‌های قوی ریاضی و برنامه‌نویسی برای یک مدل با حجم 7B است." }, "Pro/deepseek-ai/DeepSeek-V3": { "description": "DeepSeek-V3 یک مدل زبان با 671 میلیارد پارامتر است که از معماری متخصصان ترکیبی (MoE) و توجه چندسر (MLA) استفاده می‌کند و با استراتژی تعادل بار بدون ضرر کمکی بهینه‌سازی کارایی استنتاج و آموزش را انجام می‌دهد. این مدل با پیش‌آموزش بر روی 14.8 تریلیون توکن با کیفیت بالا و انجام تنظیم دقیق نظارتی و یادگیری تقویتی، در عملکرد از سایر مدل‌های متن‌باز پیشی می‌گیرد و به مدل‌های بسته پیشرو نزدیک می‌شود." }, "Pro/deepseek-ai/DeepSeek-V3.1-Terminus": { "description": "DeepSeek-V3.1-Terminus نسخه به‌روزرسانی شده مدل V3.1 منتشر شده توسط DeepSeek است که به عنوان یک مدل زبان بزرگ با عامل ترکیبی شناخته می‌شود. این به‌روزرسانی ضمن حفظ قابلیت‌های اصلی مدل، بر رفع مشکلات گزارش شده توسط کاربران و افزایش پایداری تمرکز دارد. این نسخه به طور قابل توجهی انسجام زبانی را بهبود بخشیده و از بروز ترکیب زبان چینی و انگلیسی و کاراکترهای نامتعارف کاسته است. مدل شامل حالت «تفکر» (Thinking Mode) و «غیرتفکر» (Non-thinking Mode) است که کاربران می‌توانند از طریق قالب‌های گفتگو به صورت انعطاف‌پذیر بین آن‌ها جابجا شوند تا با وظایف مختلف سازگار شوند. به عنوان یک بهینه‌سازی مهم، V3.1-Terminus عملکرد عامل کد (Code Agent) و عامل جستجو (Search Agent) را تقویت کرده است تا در فراخوانی ابزارها و اجرای وظایف پیچیده چندمرحله‌ای قابل اعتمادتر باشد." }, "Pro/deepseek-ai/DeepSeek-V3.2-Exp": { "description": "DeepSeek-V3.2-Exp نسخه آزمایشی V3.2 است که توسط DeepSeek منتشر شده و به عنوان گامی میانی در مسیر توسعه معماری نسل بعدی طراحی شده است. این نسخه با افزودن مکانیزم توجه پراکنده DeepSeek (DeepSeek Sparse Attention یا DSA) بر پایه V3.1-Terminus، کارایی آموزش و استنتاج در زمینه‌های متنی طولانی را بهبود می‌بخشد. همچنین به‌طور ویژه برای فراخوانی ابزارها، درک اسناد بلند و استدلال چندمرحله‌ای بهینه‌سازی شده است. V3.2-Exp پلی میان تحقیق و تولید است و برای کاربرانی مناسب است که به دنبال بهره‌وری بالاتر در سناریوهایی با بودجه متنی بالا هستند." }, "Pro/moonshotai/Kimi-K2-Instruct-0905": { "description": "Kimi K2-Instruct-0905 جدیدترین و قدرتمندترین نسخه Kimi K2 است. این مدل یک مدل زبان برتر با معماری متخصص ترکیبی (MoE) است که دارای ۱ تریلیون پارامتر کل و ۳۲ میلیارد پارامتر فعال می‌باشد. ویژگی‌های اصلی این مدل شامل: هوش کدگذاری عامل بهبود یافته که در آزمون‌های معیار عمومی و وظایف واقعی کدگذاری عامل عملکرد قابل توجهی نشان می‌دهد؛ تجربه کدگذاری فرانت‌اند بهبود یافته که از نظر زیبایی و کاربردی بودن برنامه‌نویسی فرانت‌اند پیشرفت داشته است." }, "QwQ-32B-Preview": { "description": "QwQ-32B-Preview یک مدل پردازش زبان طبیعی نوآورانه است که قادر به پردازش کارآمد مکالمات پیچیده و درک زمینه است." }, "Qwen/QVQ-72B-Preview": { "description": "QVQ-72B-Preview یک مدل تحقیقاتی است که توسط تیم Qwen توسعه یافته و بر روی توانایی‌های استنتاج بصری تمرکز دارد و در درک صحنه‌های پیچیده و حل مسائل ریاضی مرتبط با بصری دارای مزیت‌های منحصر به فردی است." }, "Qwen/QwQ-32B": { "description": "QwQ مدل استنتاجی از سری Qwen است. در مقایسه با مدل‌های سنتی بهینه‌سازی دستورالعمل، QwQ دارای توانایی تفکر و استنتاج است و می‌تواند در وظایف پایین‌دستی عملکرد قابل توجهی را به ویژه در حل مسائل دشوار ارائه دهد. QwQ-32B یک مدل استنتاجی متوسط است که می‌تواند در مقایسه با مدل‌های استنتاجی پیشرفته (مانند DeepSeek-R1، o1-mini) عملکرد رقابتی را به دست آورد. این مدل از تکنیک‌هایی مانند RoPE، SwiGLU، RMSNorm و Attention QKV bias استفاده می‌کند و دارای ساختار شبکه 64 لایه و 40 سر توجه Q (در معماری GQA، KV برابر با 8 است) می‌باشد." }, "Qwen/QwQ-32B-Preview": { "description": "QwQ-32B-Preview جدیدترین مدل تحقیقاتی تجربی Qwen است که بر بهبود توانایی استدلال AI تمرکز دارد. با کاوش در مکانیزم‌های پیچیده‌ای مانند ترکیب زبان و استدلال بازگشتی، مزایای اصلی شامل توانایی تحلیل استدلال قوی، توانایی ریاضی و برنامه‌نویسی است. در عین حال، مشکلاتی مانند تغییر زبان، حلقه‌های استدلال، ملاحظات ایمنی و تفاوت‌های دیگر در توانایی‌ها وجود دارد." }, "Qwen/Qwen-Image": { "description": "Qwen-Image یک مدل پایه تولید تصویر است که توسط تیم Tongyi Qianwen شرکت علی‌بابا توسعه یافته و دارای ۲۰ میلیارد پارامتر می‌باشد. این مدل در رندر متون پیچیده و ویرایش دقیق تصاویر پیشرفت‌های چشمگیری داشته و به‌ویژه در تولید تصاویری با متون چینی و انگلیسی با وفاداری بالا بسیار توانمند است. Qwen-Image نه تنها قادر به پردازش چیدمان‌های چندخطی و متون در سطح پاراگراف است، بلکه در حین تولید تصویر، انسجام تایپوگرافی و هماهنگی با زمینه را نیز حفظ می‌کند. افزون بر توانایی برجسته در رندر متن، این مدل از سبک‌های هنری متنوعی پشتیبانی می‌کند؛ از عکس‌های واقع‌گرایانه گرفته تا زیبایی‌شناسی انیمه، و می‌تواند به‌طور انعطاف‌پذیر با نیازهای مختلف خلاقانه سازگار شود. همچنین، این مدل دارای قابلیت‌های قدرتمند در ویرایش و درک تصویر است و از عملیات پیشرفته‌ای مانند انتقال سبک، افزودن یا حذف اشیاء، تقویت جزئیات، ویرایش متن و حتی کنترل حالت بدن انسان پشتیبانی می‌کند. هدف آن تبدیل شدن به یک مدل پایه هوشمند و جامع برای خلق و پردازش بصری است که زبان، چیدمان و تصویر را در هم می‌آمیزد." }, "Qwen/Qwen-Image-Edit-2509": { "description": "Qwen-Image-Edit-2509 جدیدترین نسخه ویرایش تصویر از مدل Qwen-Image است که توسط تیم Tongyi Qianwen شرکت علی‌بابا منتشر شده است. این مدل بر پایه مدل ۲۰ میلیارد پارامتری Qwen-Image توسعه یافته و با آموزش عمیق، توانایی منحصربه‌فرد خود در رندر متن را به حوزه ویرایش تصویر گسترش داده و امکان ویرایش دقیق متون درون تصویر را فراهم کرده است. Qwen-Image-Edit از معماری نوآورانه‌ای بهره می‌برد که تصویر ورودی را به‌طور هم‌زمان به Qwen2.5-VL (برای کنترل معنایی بصری) و VAE Encoder (برای کنترل ظاهر بصری) ارسال می‌کند و بدین ترتیب توانایی ویرایش دوگانه در سطح معنا و ظاهر را فراهم می‌سازد. این بدان معناست که مدل نه تنها از ویرایش‌های ظاهری موضعی مانند افزودن، حذف یا تغییر عناصر پشتیبانی می‌کند، بلکه قادر به انجام ویرایش‌های معنایی پیشرفته‌ای مانند خلق IP، انتقال سبک و حفظ انسجام معنایی نیز می‌باشد. این مدل در چندین آزمون معیار عمومی عملکردی در سطح پیشرفته (SOTA) از خود نشان داده و به یک مدل پایه قدرتمند در زمینه ویرایش تصویر تبدیل شده است." }, "Qwen/Qwen2-72B-Instruct": { "description": "Qwen 2 Instruct (72B) دستورالعمل‌های دقیق برای کاربردهای سازمانی ارائه می‌دهد و به درستی به آن‌ها پاسخ می‌دهد." }, "Qwen/Qwen2-7B-Instruct": { "description": "Qwen2-72B-Instruct یک مدل زبانی بزرگ با تنظیم دقیق دستوری در سری Qwen2 است که اندازه پارامتر آن 72B است. این مدل بر اساس معماری Transformer ساخته شده و از تکنیک‌های SwiGLU،偏置 QKV توجه و توجه گروهی استفاده می‌کند. این مدل قادر به پردازش ورودی‌های بزرگ مقیاس است. این مدل در درک زبان، تولید، توانایی چند زبانه، کدنویسی، ریاضی و استدلال در چندین آزمون معیار عملکرد عالی دارد و از اکثر مدل‌های متن باز پیشی گرفته و در برخی وظایف رقابت قابل توجهی با مدل‌های اختصاصی نشان می‌دهد." }, "Qwen/Qwen2-VL-72B-Instruct": { "description": "Qwen2-VL جدیدترین نسخه از مدل Qwen-VL است که در آزمون‌های معیار درک بصری به پیشرفته‌ترین عملکرد دست یافته است." }, "Qwen/Qwen2.5-14B-Instruct": { "description": "Qwen2.5 یک سری جدید از مدل‌های زبانی بزرگ است که با هدف بهینه‌سازی پردازش وظایف دستوری طراحی شده است." }, "Qwen/Qwen2.5-32B-Instruct": { "description": "Qwen2.5 یک سری جدید از مدل‌های زبانی بزرگ است که با هدف بهینه‌سازی پردازش وظایف دستوری طراحی شده است." }, "Qwen/Qwen2.5-72B-Instruct": { "description": "مدل زبانی بزرگ توسعه یافته توسط تیم علی‌بابا، تونگ‌yi چن‌وِن." }, "Qwen/Qwen2.5-72B-Instruct-128K": { "description": "Qwen2.5 یک سری جدید از مدل‌های زبان بزرگ است که دارای توانایی‌های قوی‌تر در درک و تولید می‌باشد." }, "Qwen/Qwen2.5-72B-Instruct-Turbo": { "description": "Qwen2.5 یک سری جدید از مدل‌های زبانی بزرگ است که با هدف بهینه‌سازی پردازش وظایف دستوری طراحی شده است." }, "Qwen/Qwen2.5-7B-Instruct": { "description": "Qwen2.5 یک سری جدید از مدل‌های زبان بزرگ است که با هدف بهینه‌سازی پردازش وظایف دستوری طراحی شده است." }, "Qwen/Qwen2.5-7B-Instruct-Turbo": { "description": "Qwen2.5 یک سری جدید از مدل‌های زبانی بزرگ است که با هدف بهینه‌سازی پردازش وظایف دستوری طراحی شده است." }, "Qwen/Qwen2.5-Coder-32B-Instruct": { "description": "Qwen2.5-Coder بر نوشتن کد تمرکز دارد." }, "Qwen/Qwen2.5-Coder-7B-Instruct": { "description": "Qwen2.5-Coder-7B-Instruct جدیدترین نسخه از سری مدل‌های زبانی بزرگ خاص کد است که توسط Alibaba Cloud منتشر شده است. این مدل بر اساس Qwen2.5 و با آموزش 5.5 تریلیون توکن، توانایی تولید کد، استدلال و اصلاح را به طور قابل توجهی افزایش داده است. این مدل نه تنها توانایی کدنویسی را تقویت کرده بلکه مزایای ریاضی و عمومی را نیز حفظ کرده است. این مدل پایه‌ای جامع‌تر برای کاربردهای عملی مانند عامل‌های کد فراهم می‌کند." }, "Qwen/Qwen2.5-VL-32B-Instruct": { "description": "Qwen2.5-VL-32B-Instruct یک مدل چند حالتی از تیم Thousand Questions است که بخشی از سری Qwen2.5-VL می‌باشد. این مدل علاوه بر توانایی شناسایی اشیاء رایج، قادر به تحلیل متن، نمودار، نمادها، شکل‌ها و طرح‌بندی‌های درون تصاویر است. این مدل به عنوان یک هوش مصنوعی بصری عمل می‌کند، قادر به استدلال و کنترل ابزارها به صورت پویا است و توانایی استفاده از کامپیوتر و موبایل را دارد. علاوه بر این، این مدل می‌تواند اشیاء درون تصویر را با دقت بالا مکان‌یابی کند و برای فاکتورها، جداول و غیره خروجی‌های ساختاریجادی تولید کند. نسبت به نسخه قبلی Qwen2-VL، این نسخه در توانایی‌های ریاضی و حل مسئله از طریق یادگیری تقویتی پیشرفت کرده است و سبک پاسخ‌گویی آن نیز بیشتر با ترجیحات انسان‌ها هماهنگ است." }, "Qwen/Qwen2.5-VL-72B-Instruct": { "description": "Qwen2.5-VL مدل زبان و تصویر از سری Qwen2.5 است. این مدل در جنبه‌های مختلف بهبود یافته است: دارای توانایی تحلیل بصری قوی‌تر، قادر به تشخیص اشیاء رایج، تحلیل متن، نمودارها و طرح‌بندی است؛ به عنوان یک عامل بصری می‌تواند استدلال کند و به طور پویا ابزارها را هدایت کند؛ از توانایی درک ویدیوهای طولانی‌تر از یک ساعت و شناسایی رویدادهای کلیدی برخوردار است؛ قادر به مکان‌یابی دقیق اشیاء در تصویر با تولید جعبه‌های مرزی یا نقاط است؛ و توانایی تولید خروجی‌های ساختاریافته، به ویژه برای داده‌های اسکن شده مانند فاکتورها و جداول را دارد." }, "Qwen/Qwen3-14B": { "description": "Qwen3 یک مدل بزرگ جدید با توانایی‌های بهبود یافته است که در استدلال، عمومی، نمایندگی و چند زبانی به سطح پیشرفته صنعت دست یافته و از تغییر حالت تفکر پشتیبانی می‌کند." }, "Qwen/Qwen3-235B-A22B": { "description": "Qwen3 یک مدل بزرگ جدید با توانایی‌های بهبود یافته است که در استدلال، عمومی، نمایندگی و چند زبانی به سطح پیشرفته صنعت دست یافته و از تغییر حالت تفکر پشتیبانی می‌کند." }, "Qwen/Qwen3-235B-A22B-Instruct-2507": { "description": "Qwen3-235B-A22B-Instruct-2507 یک مدل زبان بزرگ ترکیبی (MoE) پرچمدار از سری Qwen3 است که توسط تیم Tongyi Qianwen شرکت علی‌بابا توسعه یافته است. این مدل دارای 235 میلیارد پارامتر کل و 22 میلیارد پارامتر فعال در هر استنتاج است. نسخه به‌روزشده‌ای از حالت غیرتفکری Qwen3-235B-A22B است که تمرکز بر بهبود قابل توجه در پیروی از دستورالعمل‌ها، استدلال منطقی، درک متن، ریاضیات، علوم، برنامه‌نویسی و استفاده از ابزارها دارد. همچنین پوشش دانش چندزبانه و ترجیحات کاربر در وظایف ذهنی و باز را بهبود بخشیده تا متن‌های مفیدتر و با کیفیت بالاتری تولید کند." }, "Qwen/Qwen3-235B-A22B-Thinking-2507": { "description": "Qwen3-235B-A22B-Thinking-2507 عضوی از سری مدل‌های بزرگ زبان Qwen3 است که توسط تیم Tongyi Qianwen شرکت علی‌بابا توسعه یافته و بر وظایف استدلال پیچیده و دشوار تمرکز دارد. این مدل بر پایه معماری MoE با 235 میلیارد پارامتر کل ساخته شده و در هر توکن حدود 22 میلیارد پارامتر فعال می‌کند که باعث افزایش کارایی محاسباتی در عین حفظ قدرت عملکرد می‌شود. به عنوان یک مدل اختصاصی \"تفکر\"، در استدلال منطقی، ریاضیات، علوم، برنامه‌نویسی و آزمون‌های علمی که نیازمند تخصص انسانی هستند، عملکرد برجسته‌ای دارد و در میان مدل‌های تفکری متن‌باز در سطح برتر قرار دارد. همچنین توانایی‌های عمومی مانند پیروی از دستورالعمل‌ها، استفاده از ابزار و تولید متن را تقویت کرده و به طور بومی از درک متن‌های طولانی تا 256 هزار توکن پشتیبانی می‌کند که برای سناریوهای نیازمند استدلال عمیق و پردازش اسناد طولانی بسیار مناسب است." }, "Qwen/Qwen3-30B-A3B": { "description": "Qwen3 یک مدل بزرگ جدید با توانایی‌های بهبود یافته است که در استدلال، عمومی، نمایندگی و چند زبانی به سطح پیشرفته صنعت دست یافته و از تغییر حالت تفکر پشتیبانی می‌کند." }, "Qwen/Qwen3-30B-A3B-Instruct-2507": { "description": "Qwen3-30B-A3B-Instruct-2507 نسخه به‌روزرسانی شده مدل غیرتفکری Qwen3-30B-A3B است. این یک مدل متخصص ترکیبی (MoE) با مجموع ۳۰.۵ میلیارد پارامتر و ۳.۳ میلیارد پارامتر فعال است. این مدل در جنبه‌های مختلف بهبودهای کلیدی داشته است، از جمله افزایش قابل توجه در پیروی از دستورالعمل‌ها، استدلال منطقی، درک متن، ریاضیات، علوم، برنامه‌نویسی و استفاده از ابزارها. همچنین، پیشرفت قابل توجهی در پوشش دانش چندزبانه و تطابق بهتر با ترجیحات کاربران در وظایف ذهنی و باز دارد، که منجر به تولید پاسخ‌های مفیدتر و متون با کیفیت بالاتر می‌شود. علاوه بر این، توانایی درک متن‌های بلند این مدل تا ۲۵۶ هزار توکن افزایش یافته است. این مدل فقط از حالت غیرتفکری پشتیبانی می‌کند و خروجی آن شامل برچسب‌های `<think></think>` نخواهد بود." }, "Qwen/Qwen3-30B-A3B-Thinking-2507": { "description": "Qwen3-30B-A3B-Thinking-2507 توسط تیم Tongyi Qianwen شرکت علی‌بابا به‌عنوان جدیدترین مدل «تفکر» از سری Qwen3 منتشر شده است. این مدل که یک مدل ترکیبی از متخصصان (MoE) با مجموع 30.5 میلیارد پارامتر و 3.3 میلیارد پارامتر فعال‌شونده است، بر ارتقای توانایی پردازش وظایف پیچیده تمرکز دارد. این مدل در معیارهای علمی نیازمند تخصص انسانی—از جمله استدلال منطقی، ریاضیات، علوم و برنامه‌نویسی—بهبود قابل‌توجهی در عملکرد نشان داده است. همچنین توانمندی‌های عمومی آن در پیروی از دستورالعمل‌ها، استفاده از ابزارها، تولید متن و همسویی با ترجیح‌های انسانی نیز به‌سرعت تقویت شده‌اند. مدل به‌طور ذاتی از درک بافت‌های طولانی تا 256K پشتیبانی می‌کند و قابل گسترش تا 1,000,000 توکن است. این نسخه به‌طور ویژه برای «حالت تفکر» طراحی شده است تا از طریق استدلال گام‌به‌گام دقیق مسائل بسیار پیچیده را حل کند و قابلیت‌های عامل (Agent) آن نیز درخشان است." }, "Qwen/Qwen3-32B": { "description": "Qwen3 یک مدل بزرگ جدید با توانایی‌های بهبود یافته است که در استدلال، عمومی، نمایندگی و چند زبانی به سطح پیشرفته صنعت دست یافته و از تغییر حالت تفکر پشتیبانی می‌کند." }, "Qwen/Qwen3-8B": { "description": "Qwen3 یک مدل بزرگ جدید با توانایی‌های بهبود یافته است که در استدلال، عمومی، نمایندگی و چند زبانی به سطح پیشرفته صنعت دست یافته و از تغییر حالت تفکر پشتیبانی می‌کند." }, "Qwen/Qwen3-Coder-30B-A3B-Instruct": { "description": "Qwen3-Coder-30B-A3B-Instruct یک مدل کدنویسی از مجموعه Qwen3 است که توسط تیم Tongyi Qianwen شرکت علی‌بابا توسعه یافته است. به‌عنوان یک مدل پالایش‌شده و بهینه‌شده، این مدل در حالی که عملکرد و کارایی بالایی را حفظ می‌کند، بر بهبود توانمندی‌های پردازش کد متمرکز شده است. این مدل در وظایف پیچیده‌ای مانند برنامه‌نویسی عامل‌محور (Agentic Coding)، خودکارسازی عملیات مرورگر و فراخوانی ابزارها، نسبت به مدل‌های متن‌باز مزایای عملکرد چشمگیری از خود نشان می‌دهد. این مدل به‌صورت بومی از زمینه‌های متنی طولانی تا 256K توکن پشتیبانی می‌کند و قابل گسترش تا 1M توکن است، که امکان درک و پردازش در سطح مخازن کد را بهبود می‌بخشد. علاوه بر این، این مدل پشتیبانی قدرتمندی برای کدنویسی عاملی در پلتفرم‌هایی مانند Qwen Code و CLINE فراهم می‌آورد و فرمت ویژه‌ای برای فراخوانی توابع طراحی شده است." }, "Qwen/Qwen3-Coder-480B-A35B-Instruct": { "description": "Qwen3-Coder-480B-A35B-Instruct مدلی برای برنامه‌نویسی است که توسط علی‌بابا منتشر شده و تا کنون بیشترین قابلیت‌های عامل‌محور (Agentic) را داراست. این مدل یک مدل ترکیب متخصصان (Mixture of Experts - MoE) با حدود 480 میلیارد پارامتر کل و 35 میلیارد پارامتر فعال است که تعادلی میان کارایی و عملکرد برقرار می‌کند. این مدل به‌صورت بومی از طول زمینه 256K (حدود 260 هزار) توکن پشتیبانی می‌کند و با استفاده از روش‌های برون‌یابی مانند YaRN می‌تواند تا 1,000,000 توکن گسترش یابد، که آن را قادر می‌سازد مخازن کد بزرگ و وظایف پیچیده برنامه‌نویسی را پردازش کند. Qwen3-Coder برای جریان‌های کاری کدنویسی عامل‌محور طراحی شده است؛ نه تنها می‌تواند کد تولید کند، بلکه قادر است به‌صورت خودکار با ابزارها و محیط‌های توسعه تعامل نماید تا مسائل پیچیده برنامه‌نویسی را حل کند. در چندین بنچ‌مارک مربوط به کدنویسی و وظایف عامل، این مدل در میان مدل‌های متن‌باز در سطح برتر قرار گرفته و عملکرد آن با مدل‌های پیشرو مانند Claude Sonnet 4 قابل مقایسه است." }, "Qwen/Qwen3-Next-80B-A3B-Instruct": { "description": "Qwen3-Next-80B-A3B-Instruct مدلی پایه نسل بعدی است که توسط تیم Tongyi Qianwen شرکت علی‌بابا منتشر شده است. این مدل بر اساس معماری جدید Qwen3-Next طراحی شده و هدف آن دستیابی به بالاترین کارایی در آموزش و استنتاج است. این مدل از مکانیزم توجه ترکیبی نوآورانه (Gated DeltaNet و Gated Attention)، ساختار متخصص ترکیبی با پراکندگی بالا (MoE) و چندین بهینه‌سازی برای پایداری آموزش بهره می‌برد. به عنوان یک مدل پراکنده با ۸۰ میلیارد پارامتر کل، در زمان استنتاج تنها حدود ۳ میلیارد پارامتر فعال می‌شوند که به طور قابل توجهی هزینه محاسباتی را کاهش می‌دهد و در پردازش وظایف با زمینه طولانی بیش از ۳۲ هزار توکن، توان عملیاتی استنتاج آن بیش از ۱۰ برابر مدل Qwen3-32B است. این مدل نسخه تنظیم شده برای دستورالعمل‌ها است و برای وظایف عمومی طراحی شده و از حالت زنجیره فکری (Thinking) پشتیبانی نمی‌کند. از نظر عملکرد، در برخی بنچمارک‌ها با مدل پرچمدار Tongyi Qianwen یعنی Qwen3-235B برابری می‌کند و به ویژه در وظایف با زمینه بسیار طولانی برتری قابل توجهی دارد." }, "Qwen/Qwen3-Next-80B-A3B-Thinking": { "description": "Qwen3-Next-80B-A3B-Thinking مدلی پایه نسل بعدی است که توسط تیم Tongyi Qianwen شرکت علی‌بابا برای وظایف استنتاج پیچیده طراحی شده است. این مدل بر اساس معماری نوآورانه Qwen3-Next ساخته شده که مکانیزم توجه ترکیبی (Gated DeltaNet و Gated Attention) و ساختار متخصص ترکیبی با پراکندگی بالا (MoE) را ادغام می‌کند تا به بالاترین کارایی در آموزش و استنتاج دست یابد. به عنوان یک مدل پراکنده با ۸۰ میلیارد پارامتر کل، در زمان استنتاج تنها حدود ۳ میلیارد پارامتر فعال می‌شوند که هزینه محاسباتی را به طور چشمگیری کاهش می‌دهد و در پردازش وظایف با زمینه طولانی بیش از ۳۲ هزار توکن، توان عملیاتی آن بیش از ۱۰ برابر مدل Qwen3-32B است. این نسخه «Thinking» به طور خاص برای انجام وظایف چندمرحله‌ای دشوار مانند اثبات ریاضی، ترکیب کد، تحلیل منطقی و برنامه‌ریزی بهینه شده و به طور پیش‌فرض فرایند استنتاج را به صورت ساختاریافته و در قالب «زنجیره فکری» ارائه می‌دهد. از نظر عملکرد، این مدل نه تنها از مدل‌های پرهزینه‌تر مانند Qwen3-32B-Thinking پیشی گرفته، بلکه در چندین بنچمارک از Gemini-2.5-Flash-Thinking نیز بهتر عمل می‌کند." }, "Qwen/Qwen3-Omni-30B-A3B-Captioner": { "description": "Qwen3-Omni-30B-A3B-Captioner یکی از مدل‌های زبان تصویری (VLM) سری Qwen3 از تیم Tongyi Qianwen شرکت علی‌بابا است. این مدل به‌طور خاص برای تولید توصیف‌های تصویری با کیفیت بالا، دقیق و جزئی طراحی شده است. با بهره‌گیری از معماری متخصصان ترکیبی (MoE) با ۳۰ میلیارد پارامتر کلی، این مدل توانایی درک عمیق محتوای تصویر و تبدیل آن به توصیف‌های متنی روان و طبیعی را دارد. عملکرد برجسته‌ای در زمینه‌هایی مانند درک صحنه، شناسایی اشیاء، استنتاج روابط و ثبت جزئیات تصویری دارد و برای کاربردهایی که نیاز به درک دقیق تصویر و تولید توصیف دارند، بسیار مناسب است." }, "Qwen/Qwen3-Omni-30B-A3B-Instruct": { "description": "Qwen3-Omni-30B-A3B-Instruct یکی از جدیدترین مدل‌های سری Qwen3 از تیم Tongyi Qianwen شرکت علی‌بابا است. این مدل با معماری متخصصان ترکیبی (MoE) دارای ۳۰ میلیارد پارامتر کلی و ۳ میلیارد پارامتر فعال است که در عین حفظ عملکرد قدرتمند، هزینه استنتاج را کاهش می‌دهد. این مدل با داده‌های با کیفیت، چندمنبعی و چندزبانه آموزش دیده و توانایی عمومی بالایی دارد. از ورودی‌های چندحالته شامل متن، تصویر، صوت و ویدیو پشتیبانی می‌کند و قادر به درک و تولید محتوای میان‌حالتی است." }, "Qwen/Qwen3-Omni-30B-A3B-Thinking": { "description": "Qwen3-Omni-30B-A3B-Thinking بخش اصلی «تفکر» (Thinker) در مدل چندحالته Qwen3-Omni است. این مدل به‌طور خاص برای پردازش ورودی‌های چندحالته شامل متن، صوت، تصویر و ویدیو و انجام استنتاج‌های زنجیره‌ای پیچیده طراحی شده است. به‌عنوان مغز استنتاج، این مدل تمام ورودی‌ها را به فضای بازنمایی مشترک تبدیل می‌کند تا درک عمیق و استنتاج میان‌حالتی را ممکن سازد. با بهره‌گیری از معماری MoE و ۳۰ میلیارد پارامتر کلی و ۳ میلیارد پارامتر فعال، این مدل در عین حفظ توانایی استنتاج قوی، بهره‌وری محاسباتی را نیز بهینه می‌کند." }, "Qwen/Qwen3-VL-235B-A22B-Instruct": { "description": "Qwen3-VL-235B-A22B-Instruct یک مدل بزرگ تنظیم‌شده با دستورالعمل از سری Qwen3-VL است که بر پایه معماری متخصصان ترکیبی (MoE) ساخته شده و توانایی برجسته‌ای در درک و تولید چندرسانه‌ای دارد. این مدل به‌صورت بومی از زمینه متنی ۲۵۶ هزار توکن پشتیبانی می‌کند و برای خدمات چندرسانه‌ای در سطح تولید با هم‌زمانی بالا مناسب است." }, "Qwen/Qwen3-VL-235B-A22B-Thinking": { "description": "Qwen3-VL-235B-A22B-Thinking نسخه پرچم‌دار تفکر از سری Qwen3-VL است که به‌طور خاص برای استدلال پیچیده چندرسانه‌ای، استدلال در زمینه‌های متنی طولانی و تعامل با عامل‌های هوشمند بهینه‌سازی شده است. این مدل برای سناریوهای سازمانی که نیاز به تفکر عمیق و استدلال بصری دارند، مناسب است." }, "Qwen/Qwen3-VL-30B-A3B-Instruct": { "description": "Qwen3-VL-30B-A3B-Instruct نسخه تنظیم‌شده با دستورالعمل از سری Qwen3-VL است که توانایی بالایی در درک و تولید زبان-تصویر دارد. این مدل به‌صورت بومی از زمینه متنی ۲۵۶ هزار توکن پشتیبانی می‌کند و برای گفتگوهای چندرسانه‌ای و تولید محتوا بر اساس تصویر مناسب است." }, "Qwen/Qwen3-VL-30B-A3B-Thinking": { "description": "Qwen3-VL-30B-A3B-Thinking نسخه تقویت‌شده برای استدلال (Thinking) از سری Qwen3-VL است که برای وظایف استدلال چندرسانه‌ای، تبدیل تصویر به کد و درک پیچیده بصری بهینه‌سازی شده است. این مدل از زمینه متنی ۲۵۶ هزار توکن پشتیبانی می‌کند و توانایی بالایی در تفکر زنجیره‌ای دارد." }, "Qwen/Qwen3-VL-32B-Instruct": { "description": "Qwen3-VL-32B-Instruct یک مدل زبان تصویری از تیم Tongyi Qianwen شرکت علی‌بابا است که در چندین