@lobehub/chat
Version:
Lobe Chat - an open-source, high-performance chatbot framework that supports speech synthesis, multimodal, and extensible Function Call plugin system. Supports one-click free deployment of your private ChatGPT/LLM web application.
955 lines • 274 kB
JSON
{
"01-ai/yi-1.5-34b-chat": {
"description": "零一万物,最新开源微调模型,340亿参数,微调支持多种对话场景,高质量训练数据,对齐人类偏好。"
},
"01-ai/yi-1.5-9b-chat": {
"description": "零一万物,最新开源微调模型,90亿参数,微调支持多种对话场景,高质量训练数据,对齐人类偏好。"
},
"360/deepseek-r1": {
"description": "【360部署版】DeepSeek-R1在后训练阶段大规模使用了强化学习技术,在仅有极少标注数据的情况下,极大提升了模型推理能力。在数学、代码、自然语言推理等任务上,性能比肩 OpenAI o1 正式版。"
},
"360gpt-pro": {
"description": "360GPT Pro 作为 360 AI 模型系列的重要成员,以高效的文本处理能力满足多样化的自然语言应用场景,支持长文本理解和多轮对话等功能。"
},
"360gpt-pro-trans": {
"description": "翻译专用模型,深度微调优化,翻译效果领先。"
},
"360gpt-turbo": {
"description": "360GPT Turbo 提供强大的计算和对话能力,具备出色的语义理解和生成效率,是企业和开发者理想的智能助理解决方案。"
},
"360gpt-turbo-responsibility-8k": {
"description": "360GPT Turbo Responsibility 8K 强调语义安全和责任导向,专为对内容安全有高度要求的应用场景设计,确保用户体验的准确性与稳健性。"
},
"360gpt2-o1": {
"description": "360gpt2-o1 使用树搜索构建思维链,并引入了反思机制,使用强化学习训练,模型具备自我反思与纠错的能力。"
},
"360gpt2-pro": {
"description": "360GPT2 Pro 是 360 公司推出的高级自然语言处理模型,具备卓越的文本生成和理解能力,尤其在生成与创作领域表现出色,能够处理复杂的语言转换和角色演绎任务。"
},
"360zhinao2-o1": {
"description": "360zhinao2-o1 使用树搜索构建思维链,并引入了反思机制,使用强化学习训练,模型具备自我反思与纠错的能力。"
},
"4.0Ultra": {
"description": "Spark Ultra 是星火大模型系列中最为强大的版本,在升级联网搜索链路同时,提升对文本内容的理解和总结能力。它是用于提升办公生产力和准确响应需求的全方位解决方案,是引领行业的智能产品。"
},
"AnimeSharp": {
"description": "AnimeSharp(又名 “4x‑AnimeSharp”) 是 Kim2091 基于 ESRGAN 架构开发的开源超分辨率模型,专注于动漫风格图像的放大与锐化。它于 2022 年 2 月重命名自 “4x-TextSharpV1”,原本也适用于文字图像但性能针对动漫内容进行了大幅优化"
},
"Baichuan2-Turbo": {
"description": "采用搜索增强技术实现大模型与领域知识、全网知识的全面链接。支持PDF、Word等多种文档上传及网址输入,信息获取及时、全面,输出结果准确、专业。"
},
"Baichuan3-Turbo": {
"description": "针对企业高频场景优化,效果大幅提升,高性价比。相对于Baichuan2模型,内容创作提升20%,知识问答提升17%, 角色扮演能力提升40%。整体效果比GPT3.5更优。"
},
"Baichuan3-Turbo-128k": {
"description": "具备 128K 超长上下文窗口,针对企业高频场景优化,效果大幅提升,高性价比。相对于Baichuan2模型,内容创作提升20%,知识问答提升17%, 角色扮演能力提升40%。整体效果比GPT3.5更优。"
},
"Baichuan4": {
"description": "模型能力国内第一,在知识百科、长文本、生成创作等中文任务上超越国外主流模型。还具备行业领先的多模态能力,多项权威评测基准表现优异。"
},
"Baichuan4-Air": {
"description": "模型能力国内第一,在知识百科、长文本、生成创作等中文任务上超越国外主流模型。还具备行业领先的多模态能力,多项权威评测基准表现优异。"
},
"Baichuan4-Turbo": {
"description": "模型能力国内第一,在知识百科、长文本、生成创作等中文任务上超越国外主流模型。还具备行业领先的多模态能力,多项权威评测基准表现优异。"
},
"ByteDance-Seed/Seed-OSS-36B-Instruct": {
"description": "Seed-OSS 是由字节跳动 Seed 团队开发的一系列开源大型语言模型,专为强大的长上下文处理、推理、智能体(agent)和通用能力而设计。该系列中的 Seed-OSS-36B-Instruct 是一个拥有 360 亿参数的指令微调模型,它原生支持超长上下文长度,使其能够一次性处理海量文档或复杂的代码库。该模型在推理、代码生成和智能体任务(如工具使用)方面进行了特别优化,同时保持了平衡且出色的通用能力。此模型的一大特色是“思考预算”(Thinking Budget)功能,允许用户根据需要灵活调整推理长度,从而在实际应用中有效提升推理效率。"
},
"DeepSeek-R1": {
"description": "DeepSeek-R1 在后训练阶段大规模使用了强化学习技术,在仅有极少标注数据的情况下,极大提升了模型推理能力。在数学、代码、自然语言推理等任务上,性能比肩 OpenAI o1 正式版。"
},
"DeepSeek-R1-Distill-Llama-70B": {
"description": "DeepSeek R1——DeepSeek 套件中更大更智能的模型——被蒸馏到 Llama 70B 架构中。基于基准测试和人工评估,该模型比原始 Llama 70B 更智能,尤其在需要数学和事实精确性的任务上表现出色。"
},
"DeepSeek-R1-Distill-Qwen-1.5B": {
"description": "基于 Qwen2.5-Math-1.5B 的 DeepSeek-R1 蒸馏模型,通过强化学习与冷启动数据优化推理性能,开源模型刷新多任务标杆。"
},
"DeepSeek-R1-Distill-Qwen-14B": {
"description": "DeepSeek-R1-Distill 模型是在开源模型的基础上通过微调训练得到的,训练过程中使用了由 DeepSeek-R1 生成的样本数据。"
},
"DeepSeek-R1-Distill-Qwen-32B": {
"description": "DeepSeek-R1-Distill 模型是在开源模型的基础上通过微调训练得到的,训练过程中使用了由 DeepSeek-R1 生成的样本数据。"
},
"DeepSeek-R1-Distill-Qwen-7B": {
"description": "基于 Qwen2.5-Math-7B 的 DeepSeek-R1 蒸馏模型,通过强化学习与冷启动数据优化推理性能,开源模型刷新多任务标杆。"
},
"DeepSeek-V3": {
"description": "DeepSeek-V3 是一款由深度求索公司自研的MoE模型。DeepSeek-V3 多项评测成绩超越了 Qwen2.5-72B 和 Llama-3.1-405B 等其他开源模型,并在性能上和世界顶尖的闭源模型 GPT-4o 以及 Claude-3.5-Sonnet 不分伯仲。"
},
"DeepSeek-V3-1": {
"description": "DeepSeek V3.1:下一代推理模型,提升了复杂推理与链路思考能力,适合需要深入分析的任务。"
},
"DeepSeek-V3-Fast": {
"description": "模型供应商为:sophnet平台。DeepSeek V3 Fast 是 DeepSeek V3 0324 版本的高TPS极速版,满血非量化,代码与数学能力更强,响应更快!"
},
"DeepSeek-V3.1": {
"description": "DeepSeek-V3.1-非思考模式;DeepSeek-V3.1 是深度求索全新推出的混合推理模型,支持思考与非思考2种推理模式,较 DeepSeek-R1-0528 思考效率更高。经 Post-Training 优化,Agent 工具使用与智能体任务表现大幅提升。"
},
"DeepSeek-V3.1-Fast": {
"description": "DeepSeek V3.1 Fast 是 DeepSeek V3.1版本的高TPS极速版。 混合思考模式:通过更改聊天模板,一个模型可以同时支持思考模式和非思考模式。 更智能的工具调用:通过后训练优化,模型在工具使用和代理任务中的表现显著提升。"
},
"DeepSeek-V3.1-Think": {
"description": "DeepSeek-V3.1-思考模式;DeepSeek-V3.1 是深度求索全新推出的混合推理模型,支持思考与非思考2种推理模式,较 DeepSeek-R1-0528 思考效率更高。经 Post-Training 优化,Agent 工具使用与智能体任务表现大幅提升。"
},
"DeepSeek-V3.2-Exp": {
"description": "DeepSeek V3.2 是 DeepSeek 最新发布的通用大模型,支持混合推理架构,具备更强的 Agent 能力。"
},
"DeepSeek-V3.2-Exp-Think": {
"description": "DeepSeek V3.2 思考模式。在输出最终回答之前,模型会先输出一段思维链内容,以提升最终答案的准确性。"
},
"Doubao-lite-128k": {
"description": "Doubao-lite 拥有极致的响应速度,更好的性价比,为客户不同场景提供更灵活的选择。支持128k上下文窗口的推理和精调。"
},
"Doubao-lite-32k": {
"description": "Doubao-lite拥有极致的响应速度,更好的性价比,为客户不同场景提供更灵活的选择。支持32k上下文窗口的推理和精调。"
},
"Doubao-lite-4k": {
"description": "Doubao-lite拥有极致的响应速度,更好的性价比,为客户不同场景提供更灵活的选择。支持4k上下文窗口的推理和精调。"
},
"Doubao-pro-128k": {
"description": "效果最好的主力模型,适合处理复杂任务,在参考问答、总结摘要、创作、文本分类、角色扮演等场景都有很好的效果。支持128k上下文窗口的推理和精调。"
},
"Doubao-pro-32k": {
"description": "效果最好的主力模型,适合处理复杂任务,在参考问答、总结摘要、创作、文本分类、角色扮演等场景都有很好的效果。支持32k上下文窗口的推理和精调。"
},
"Doubao-pro-4k": {
"description": "效果最好的主力模型,适合处理复杂任务,在参考问答、总结摘要、创作、文本分类、角色扮演等场景都有很好的效果。支持4k上下文窗口的推理和精调。"
},
"DreamO": {
"description": "DreamO 是由字节跳动与北京大学联合研发的开源图像定制生成模型,旨在通过统一架构支持多任务图像生成。它采用高效的组合建模方法,可根据用户指定的身份、主体、风格、背景等多个条件生成高度一致且定制化的图像。"
},
"ERNIE-3.5-128K": {
"description": "百度自研的旗舰级大规模⼤语⾔模型,覆盖海量中英文语料,具有强大的通用能力,可满足绝大部分对话问答、创作生成、插件应用场景要求;支持自动对接百度搜索插件,保障问答信息时效。"
},
"ERNIE-3.5-8K": {
"description": "百度自研的旗舰级大规模⼤语⾔模型,覆盖海量中英文语料,具有强大的通用能力,可满足绝大部分对话问答、创作生成、插件应用场景要求;支持自动对接百度搜索插件,保障问答信息时效。"
},
"ERNIE-3.5-8K-Preview": {
"description": "百度自研的旗舰级大规模⼤语⾔模型,覆盖海量中英文语料,具有强大的通用能力,可满足绝大部分对话问答、创作生成、插件应用场景要求;支持自动对接百度搜索插件,保障问答信息时效。"
},
"ERNIE-4.0-8K-Latest": {
"description": "百度自研的旗舰级超大规模⼤语⾔模型,相较ERNIE 3.5实现了模型能力全面升级,广泛适用于各领域复杂任务场景;支持自动对接百度搜索插件,保障问答信息时效。"
},
"ERNIE-4.0-8K-Preview": {
"description": "百度自研的旗舰级超大规模⼤语⾔模型,相较ERNIE 3.5实现了模型能力全面升级,广泛适用于各领域复杂任务场景;支持自动对接百度搜索插件,保障问答信息时效。"
},
"ERNIE-4.0-Turbo-8K-Latest": {
"description": "百度自研的旗舰级超大规模⼤语⾔模型,综合效果表现出色,广泛适用于各领域复杂任务场景;支持自动对接百度搜索插件,保障问答信息时效。相较于ERNIE 4.0在性能表现上更优秀"
},
"ERNIE-4.0-Turbo-8K-Preview": {
"description": "百度自研的旗舰级超大规模⼤语⾔模型,综合效果表现出色,广泛适用于各领域复杂任务场景;支持自动对接百度搜索插件,保障问答信息时效。相较于ERNIE 4.0在性能表现上更优秀"
},
"ERNIE-Character-8K": {
"description": "百度自研的垂直场景大语言模型,适合游戏NPC、客服对话、对话角色扮演等应用场景,人设风格更为鲜明、一致,指令遵循能力更强,推理性能更优。"
},
"ERNIE-Lite-Pro-128K": {
"description": "百度自研的轻量级大语言模型,兼顾优异的模型效果与推理性能,效果比ERNIE Lite更优,适合低算力AI加速卡推理使用。"
},
"ERNIE-Speed-128K": {
"description": "百度2024年最新发布的自研高性能大语言模型,通用能力优异,适合作为基座模型进行精调,更好地处理特定场景问题,同时具备极佳的推理性能。"
},
"ERNIE-Speed-Pro-128K": {
"description": "百度2024年最新发布的自研高性能大语言模型,通用能力优异,效果比ERNIE Speed更优,适合作为基座模型进行精调,更好地处理特定场景问题,同时具备极佳的推理性能。"
},
"FLUX-1.1-pro": {
"description": "FLUX.1.1 Pro"
},
"FLUX.1-Kontext-dev": {
"description": "FLUX.1-Kontext-dev 是由 Black Forest Labs 开发的一款基于 Rectified Flow Transformer 架构 的多模态图像生成与编辑模型,拥有 12B(120 亿)参数规模,专注于在给定上下文条件下生成、重构、增强或编辑图像。该模型结合了扩散模型的可控生成优势与 Transformer 的上下文建模能力,支持高质量图像输出,广泛适用于图像修复、图像补全、视觉场景重构等任务。"
},
"FLUX.1-Kontext-pro": {
"description": "FLUX.1 Kontext [pro]"
},
"FLUX.1-dev": {
"description": "FLUX.1-dev 是由 Black Forest Labs 开发的一款开源 多模态语言模型(Multimodal Language Model, MLLM),专为图文任务优化,融合了图像和文本的理解与生成能力。它建立在先进的大语言模型(如 Mistral-7B)基础上,通过精心设计的视觉编码器与多阶段指令微调,实现了图文协同处理与复杂任务推理的能力。"
},
"Gryphe/MythoMax-L2-13b": {
"description": "MythoMax-L2 (13B) 是一种创新模型,适合多领域应用和复杂任务。"
},
"HelloMeme": {
"description": "HelloMeme 是一个可以根据你提供的图片或动作,自动生成表情包、动图或短视频的 AI 工具。它不需要你有任何绘画或编程基础,只需要准备好参考图片,它就能帮你做出好看、有趣、风格一致的内容。"
},
"HiDream-I1-Full": {
"description": "HiDream-E1-Full 是由智象未来(HiDream.ai)推出的一款 开源多模态图像编辑大模型,基于先进的 Diffusion Transformer 架构,并结合强大的语言理解能力(内嵌 LLaMA 3.1-8B-Instruct),支持通过自然语言指令进行图像生成、风格迁移、局部编辑和内容重绘,具备出色的图文理解与执行能力。"
},
"HunyuanDiT-v1.2-Diffusers-Distilled": {
"description": "hunyuandit-v1.2-distilled 是一款轻量级的文生图模型,经过蒸馏优化,能够快速生成高质量的图像,特别适用于低资源环境和实时生成任务。"
},
"InstantCharacter": {
"description": "InstantCharacter 是由腾讯 AI 团队在 2025 年发布的一款 无需微调(tuning-free) 的个性化角色生成模型,旨在实现高保真、跨场景的一致角色生成。该模型支持仅基于 一张参考图像 对角色进行建模,并能够将该角色灵活迁移到各种风格、动作和背景中。"
},
"InternVL2-8B": {
"description": "InternVL2-8B 是一款强大的视觉语言模型,支持图像与文本的多模态处理,能够精确识别图像内容并生成相关描述或回答。"
},
"InternVL2.5-26B": {
"description": "InternVL2.5-26B 是一款强大的视觉语言模型,支持图像与文本的多模态处理,能够精确识别图像内容并生成相关描述或回答。"
},
"Kolors": {
"description": "Kolors 是由快手 Kolors 团队开发的文生图模型。由数十亿的参数训练,在视觉质量、中文语义理解和文本渲染方面有显著优势。"
},
"Kwai-Kolors/Kolors": {
"description": "Kolors 是由快手 Kolors 团队开发的基于潜在扩散的大规模文本到图像生成模型。该模型通过数十亿文本-图像对的训练,在视觉质量、复杂语义准确性以及中英文字符渲染方面展现出显著优势。它不仅支持中英文输入,在理解和生成中文特定内容方面也表现出色"
},
"Llama-3.2-11B-Vision-Instruct": {
"description": "在高分辨率图像上表现出色的图像推理能力,适用于视觉理解应用。"
},
"Llama-3.2-90B-Vision-Instruct\t": {
"description": "适用于视觉理解代理应用的高级图像推理能力。"
},
"Meta-Llama-3-3-70B-Instruct": {
"description": "Llama 3.3 70B:通用性强的 Transformer 模型,适用于对话和生成任务。"
},
"Meta-Llama-3.1-405B-Instruct": {
"description": "Llama 3.1指令调优的文本模型,针对多语言对话用例进行了优化,在许多可用的开源和封闭聊天模型中,在常见行业基准上表现优异。"
},
"Meta-Llama-3.1-70B-Instruct": {
"description": "Llama 3.1指令调优的文本模型,针对多语言对话用例进行了优化,在许多可用的开源和封闭聊天模型中,在常见行业基准上表现优异。"
},
"Meta-Llama-3.1-8B-Instruct": {
"description": "Llama 3.1指令调优的文本模型,针对多语言对话用例进行了优化,在许多可用的开源和封闭聊天模型中,在常见行业基准上表现优异。"
},
"Meta-Llama-3.2-1B-Instruct": {
"description": "先进的最尖端小型语言模型,具备语言理解、卓越的推理能力和文本生成能力。"
},
"Meta-Llama-3.2-3B-Instruct": {
"description": "先进的最尖端小型语言模型,具备语言理解、卓越的推理能力和文本生成能力。"
},
"Meta-Llama-3.3-70B-Instruct": {
"description": "Llama 3.3 是 Llama 系列最先进的多语言开源大型语言模型,以极低成本体验媲美 405B 模型的性能。基于 Transformer 结构,并通过监督微调(SFT)和人类反馈强化学习(RLHF)提升有用性和安全性。其指令调优版本专为多语言对话优化,在多项行业基准上表现优于众多开源和封闭聊天模型。知识截止日期为 2023 年 12 月"
},
"Meta-Llama-4-Maverick-17B-128E-Instruct-FP8": {
"description": "Llama 4 Maverick:基于 Mixture-of-Experts 的大规模模型,提供高效的专家激活策略以在推理中表现优异。"
},
"MiniMax-M1": {
"description": "全新自研推理模型。全球领先:80K 思维链 x 1M 输入,效果比肩海外顶尖模型"
},
"MiniMax-M2": {
"description": "专为高效编码与Agent工作流而生"
},
"MiniMax-Text-01": {
"description": "在 MiniMax-01系列模型中,我们做了大胆创新:首次大规模实现线性注意力机制,传统 Transformer架构不再是唯一的选择。这个模型的参数量高达4560亿,其中单次激活459亿。模型综合性能比肩海外顶尖模型,同时能够高效处理全球最长400万token的上下文,是GPT-4o的32倍,Claude-3.5-Sonnet的20倍。"
},
"MiniMaxAI/MiniMax-M1-80k": {
"description": "MiniMax-M1 是开源权重的大规模混合注意力推理模型,拥有 4560 亿参数,每个 Token 可激活约 459 亿参数。模型原生支持 100 万 Token 的超长上下文,并通过闪电注意力机制,在 10 万 Token 的生成任务中相比 DeepSeek R1 节省 75% 的浮点运算量。同时,MiniMax-M1 采用 MoE(混合专家)架构,结合 CISPO 算法与混合注意力设计的高效强化学习训练,在长输入推理与真实软件工程场景中实现了业界领先的性能。"
},
"Moonshot-Kimi-K2-Instruct": {
"description": "总参数 1T,激活参数 32B。 非思维模型中,在前沿知识、数学和编码方面达到了顶尖水平,更擅长通用 Agent 任务。 针对代理任务进行了精心优化,不仅能回答问题,还能采取行动。 最适用于即兴、通用聊天和代理体验,是一款无需长时间思考的反射级模型。"
},
"NousResearch/Nous-Hermes-2-Mixtral-8x7B-DPO": {
"description": "Nous Hermes 2 - Mixtral 8x7B-DPO (46.7B) 是高精度的指令模型,适用于复杂计算。"
},
"OmniConsistency": {
"description": "OmniConsistency 通过引入大规模 Diffusion Transformers(DiTs)和配对风格化数据,提升图像到图像(Image-to-Image)任务中的风格一致性和泛化能力,避免风格退化。"
},
"Phi-3-medium-128k-instruct": {
"description": "相同的Phi-3-medium模型,但具有更大的上下文大小,适用于RAG或少量提示。"
},
"Phi-3-medium-4k-instruct": {
"description": "一个140亿参数模型,质量优于Phi-3-mini,重点关注高质量、推理密集型数据。"
},
"Phi-3-mini-128k-instruct": {
"description": "相同的Phi-3-mini模型,但具有更大的上下文大小,适用于RAG或少量提示。"
},
"Phi-3-mini-4k-instruct": {
"description": "Phi-3家族中最小的成员,针对质量和低延迟进行了优化。"
},
"Phi-3-small-128k-instruct": {
"description": "相同的Phi-3-small模型,但具有更大的上下文大小,适用于RAG或少量提示。"
},
"Phi-3-small-8k-instruct": {
"description": "一个70亿参数模型,质量优于Phi-3-mini,重点关注高质量、推理密集型数据。"
},
"Phi-3.5-mini-instruct": {
"description": "Phi-3-mini模型的更新版。"
},
"Phi-3.5-vision-instrust": {
"description": "Phi-3-vision模型的更新版。"
},
"Pro/Qwen/Qwen2-7B-Instruct": {
"description": "Qwen2-7B-Instruct 是 Qwen2 系列中的指令微调大语言模型,参数规模为 7B。该模型基于 Transformer 架构,采用了 SwiGLU 激活函数、注意力 QKV 偏置和组查询注意力等技术。它能够处理大规模输入。该模型在语言理解、生成、多语言能力、编码、数学和推理等多个基准测试中表现出色,超越了大多数开源模型,并在某些任务上展现出与专有模型相当的竞争力。Qwen2-7B-Instruct 在多项评测中均优于 Qwen1.5-7B-Chat,显示出显著的性能提升"
},
"Pro/Qwen/Qwen2.5-7B-Instruct": {
"description": "Qwen2.5-7B-Instruct 是阿里云发布的最新大语言模型系列之一。该 7B 模型在编码和数学等领域具有显著改进的能力。该模型还提供了多语言支持,覆盖超过 29 种语言,包括中文、英文等。模型在指令跟随、理解结构化数据以及生成结构化输出(尤其是 JSON)方面都有显著提升"
},
"Pro/Qwen/Qwen2.5-Coder-7B-Instruct": {
"description": "Qwen2.5-Coder-7B-Instruct 是阿里云发布的代码特定大语言模型系列的最新版本。该模型在 Qwen2.5 的基础上,通过 5.5 万亿个 tokens 的训练,显著提升了代码生成、推理和修复能力。它不仅增强了编码能力,还保持了数学和通用能力的优势。模型为代码智能体等实际应用提供了更全面的基础"
},
"Pro/Qwen/Qwen2.5-VL-7B-Instruct": {
"description": "Qwen2.5-VL 是 Qwen 系列的新成员,具备强大的视觉理解能力,能分析图像中的文本、图表和布局,并能理解长视频和捕捉事件,它可以进行推理、操作工具,支持多格式物体定位和生成结构化输出,优化了视频理解的动态分辨率与帧率训练,并提升了视觉编码器效率。"
},
"Pro/THUDM/GLM-4.1V-9B-Thinking": {
"description": "GLM-4.1V-9B-Thinking 是由智谱 AI 和清华大学 KEG 实验室联合发布的一款开源视觉语言模型(VLM),专为处理复杂的多模态认知任务而设计。该模型基于 GLM-4-9B-0414 基础模型,通过引入“思维链”(Chain-of-Thought)推理机制和采用强化学习策略,显著提升了其跨模态的推理能力和稳定性。"
},
"Pro/THUDM/glm-4-9b-chat": {
"description": "GLM-4-9B-Chat 是智谱 AI 推出的 GLM-4 系列预训练模型中的开源版本。该模型在语义、数学、推理、代码和知识等多个方面表现出色。除了支持多轮对话外,GLM-4-9B-Chat 还具备网页浏览、代码执行、自定义工具调用(Function Call)和长文本推理等高级功能。模型支持 26 种语言,包括中文、英文、日语、韩语和德语等。在多项基准测试中,GLM-4-9B-Chat 展现了优秀的性能,如 AlignBench-v2、MT-Bench、MMLU 和 C-Eval 等。该模型支持最大 128K 的上下文长度,适用于学术研究和商业应用"
},
"Pro/deepseek-ai/DeepSeek-R1": {
"description": "DeepSeek-R1 是一款强化学习(RL)驱动的推理模型,解决了模型中的重复性和可读性问题。在 RL 之前,DeepSeek-R1 引入了冷启动数据,进一步优化了推理性能。它在数学、代码和推理任务中与 OpenAI-o1 表现相当,并且通过精心设计的训练方法,提升了整体效果。"
},
"Pro/deepseek-ai/DeepSeek-R1-Distill-Qwen-7B": {
"description": "DeepSeek-R1-Distill-Qwen-7B 是基于 Qwen2.5-Math-7B 通过知识蒸馏得到的模型。该模型使用 DeepSeek-R1 生成的 80 万个精选样本进行微调,展现出优秀的推理能力。在多个基准测试中表现出色,其中在 MATH-500 上达到了 92.8% 的准确率,在 AIME 2024 上达到了 55.5% 的通过率,在 CodeForces 上获得了 1189 的评分,作为 7B 规模的模型展示了较强的数学和编程能力。"
},
"Pro/deepseek-ai/DeepSeek-V3": {
"description": "DeepSeek-V3 是一款拥有 6710 亿参数的混合专家(MoE)语言模型,采用多头潜在注意力(MLA)和 DeepSeekMoE 架构,结合无辅助损失的负载平衡策略,优化推理和训练效率。通过在 14.8 万亿高质量tokens上预训练,并进行监督微调和强化学习,DeepSeek-V3 在性能上超越其他开源模型,接近领先闭源模型。"
},
"Pro/deepseek-ai/DeepSeek-V3.1-Terminus": {
"description": "DeepSeek-V3.1-Terminus 是由深度求索(DeepSeek)发布的 V3.1 模型的更新版本,定位为混合智能体大语言模型。此次更新在保持模型原有能力的基础上,专注于修复用户反馈的问题并提升稳定性。它显著改善了语言一致性,减少了中英文混用和异常字符的出现。模型集成了“思考模式”(Thinking Mode)和“非思考模式”(Non-thinking Mode),用户可通过聊天模板灵活切换以适应不同任务。作为一个重要的优化,V3.1-Terminus 增强了代码智能体(Code Agent)和搜索智能体(Search Agent)的性能,使其在工具调用和执行多步复杂任务方面更加可靠。"
},
"Pro/deepseek-ai/DeepSeek-V3.2-Exp": {
"description": "DeepSeek-V3.2-Exp 是 DeepSeek 发布的实验性 V3.2 版本,作为迈向下一代架构的中间探索。它在 V3.1-Terminus 的基础上引入了 DeepSeek 稀疏注意力(DeepSeek Sparse Attention,DSA)机制以提升长上下文训练与推理效率,针对工具调用、长文档理解与多步推理进行了专项优化。V3.2-Exp 为研究与产品化之间的桥梁,适合希望在高上下文预算场景中探索更高推理效率的用户。"
},
"Pro/moonshotai/Kimi-K2-Instruct-0905": {
"description": "Kimi K2-Instruct-0905 是 Kimi K2 最新、最强大的版本。它是一款顶尖的混合专家(MoE)语言模型,拥有 1 万亿的总参数和 320 亿的激活参数。该模型的主要特性包括:增强的智能体编码智能,在公开基准测试和真实世界的编码智能体任务中表现出显著的性能提升;改进的前端编码体验,在前端编程的美观性和实用性方面均有进步。"
},
"QwQ-32B-Preview": {
"description": "Qwen QwQ 是由 Qwen 团队开发的实验研究模型,专注于提升AI推理能力。"
},
"Qwen/QVQ-72B-Preview": {
"description": "QVQ-72B-Preview 是由 Qwen 团队开发的专注于视觉推理能力的研究型模型,其在复杂场景理解和解决视觉相关的数学问题方面具有独特优势。"
},
"Qwen/QwQ-32B": {
"description": "QwQ 是 Qwen 系列的推理模型。与传统的指令调优模型相比,QwQ 具备思考和推理能力,能够在下游任务中实现显著增强的性能,尤其是在解决困难问题方面。QwQ-32B 是中型推理模型,能够在与最先进的推理模型(如 DeepSeek-R1、o1-mini)的对比中取得有竞争力的性能。该模型采用 RoPE、SwiGLU、RMSNorm 和 Attention QKV bias 等技术,具有 64 层网络结构和 40 个 Q 注意力头(GQA 架构中 KV 为 8 个)。"
},
"Qwen/QwQ-32B-Preview": {
"description": "Qwen QwQ 是由 Qwen 团队开发的实验研究模型,专注于提升AI推理能力。"
},
"Qwen/Qwen-Image": {
"description": "Qwen-Image 是由阿里巴巴通义千问团队发布的图像生成基础模型,拥有 200 亿参数。该模型在复杂的文本渲染和精确的图像编辑方面取得了显著进展,尤其擅长生成包含高保真度中英文文字的图像。Qwen-Image 不仅能够处理多行布局和段落级文本,还能在生成图像时保持排版的连贯性和上下文的和谐。除了卓越的文本渲染能力,该模型还支持广泛的艺术风格,从写实照片到动漫美学,能够灵活适应各种创作需求。同时,它也具备强大的图像编辑和理解能力,支持风格迁移、物体增删、细节增强、文本编辑乃至人体姿态操控等高级操作,旨在成为一个集语言、布局和图像于一体的综合性智能视觉创作与处理基础模型"
},
"Qwen/Qwen-Image-Edit-2509": {
"description": "Qwen-Image-Edit-2509 是由阿里巴巴通义千问团队发布的 Qwen-Image 的图像编辑最新版本。该模型基于 20B 参数的 Qwen-Image 模型进行深入训练,将其独特的文本渲染能力成功扩展至图像编辑领域,实现了对图片中文字的精准编辑。此外,Qwen-Image-Edit 采用了一种创新的架构,将输入图像同时送入 Qwen2.5-VL(用于视觉语义控制)和 VAE Encoder(用于视觉外观控制),从而兼具语义与外观的双重编辑能力。这意味着它不仅支持元素的添加、删除或修改等局部外观编辑,还支持如 IP 创作、风格迁移等需要保持语义一致性的高阶视觉语义编辑。模型在多个公开基准测试中展现了顶尖(SOTA)的性能,使其成为一个强大的图像编辑基础模型"
},
"Qwen/Qwen2-72B-Instruct": {
"description": "Qwen 2 Instruct (72B) 为企业级应用提供精准的指令理解和响应。"
},
"Qwen/Qwen2-7B-Instruct": {
"description": "Qwen2-7B-Instruct 是 Qwen2 系列中的指令微调大语言模型,参数规模为 7B。该模型基于 Transformer 架构,采用了 SwiGLU 激活函数、注意力 QKV 偏置和组查询注意力等技术。它能够处理大规模输入。该模型在语言理解、生成、多语言能力、编码、数学和推理等多个基准测试中表现出色,超越了大多数开源模型,并在某些任务上展现出与专有模型相当的竞争力。Qwen2-7B-Instruct 在多项评测中均优于 Qwen1.5-7B-Chat,显示出显著的性能提升"
},
"Qwen/Qwen2-VL-72B-Instruct": {
"description": "Qwen2-VL 是 Qwen-VL 模型的最新迭代版本,在视觉理解基准测试中达到了最先进的性能,包括 MathVista、DocVQA、RealWorldQA 和 MTVQA 等。Qwen2-VL 能够理解超过 20 分钟的视频,用于高质量的基于视频的问答、对话和内容创作。它还具备复杂推理和决策能力,可以与移动设备、机器人等集成,基于视觉环境和文本指令进行自动操作。除了英语和中文,Qwen2-VL 现在还支持理解图像中不同语言的文本,包括大多数欧洲语言、日语、韩语、阿拉伯语和越南语等"
},
"Qwen/Qwen2.5-14B-Instruct": {
"description": "Qwen2.5-14B-Instruct 是阿里云发布的最新大语言模型系列之一。该 14B 模型在编码和数学等领域具有显著改进的能力。该模型还提供了多语言支持,覆盖超过 29 种语言,包括中文、英文等。模型在指令跟随、理解结构化数据以及生成结构化输出(尤其是 JSON)方面都有显著提升"
},
"Qwen/Qwen2.5-32B-Instruct": {
"description": "Qwen2.5-32B-Instruct 是阿里云发布的最新大语言模型系列之一。该 32B 模型在编码和数学等领域具有显著改进的能力。该模型还提供了多语言支持,覆盖超过 29 种语言,包括中文、英文等。模型在指令跟随、理解结构化数据以及生成结构化输出(尤其是 JSON)方面都有显著提升"
},
"Qwen/Qwen2.5-72B-Instruct": {
"description": "Qwen2.5-72B-Instruct 是阿里云发布的最新大语言模型系列之一。该 72B 模型在编码和数学等领域具有显著改进的能力。该模型还提供了多语言支持,覆盖超过 29 种语言,包括中文、英文等。模型在指令跟随、理解结构化数据以及生成结构化输出(尤其是 JSON)方面都有显著提升"
},
"Qwen/Qwen2.5-72B-Instruct-128K": {
"description": "Qwen2.5-72B-Instruct 是阿里云发布的最新大语言模型系列之一。该 72B 模型在编码和数学等领域具有显著改进的能力。它支持长达 128K tokens 的输入,可以生成超过 8K tokens 的长文本。该模型还提供了多语言支持,覆盖超过 29 种语言,包括中文、英文等。模型在指令跟随、理解结构化数据以及生成结构化输出(尤其是 JSON)方面都有显著提升"
},
"Qwen/Qwen2.5-72B-Instruct-Turbo": {
"description": "Qwen2.5 是全新的大型语言模型系列,旨在优化指令式任务的处理。"
},
"Qwen/Qwen2.5-7B-Instruct": {
"description": "Qwen2.5-7B-Instruct 是阿里云发布的最新大语言模型系列之一。该 7B 模型在编码和数学等领域具有显著改进的能力。该模型还提供了多语言支持,覆盖超过 29 种语言,包括中文、英文等。模型在指令跟随、理解结构化数据以及生成结构化输出(尤其是 JSON)方面都有显著提升"
},
"Qwen/Qwen2.5-7B-Instruct-Turbo": {
"description": "Qwen2.5 是全新的大型语言模型系列,旨在优化指令式任务的处理。"
},
"Qwen/Qwen2.5-Coder-32B-Instruct": {
"description": "Qwen2.5 Coder 32B Instruct 是阿里云发布的代码特定大语言模型系列的最新版本。该模型在 Qwen2.5 的基础上,通过 5.5 万亿个 tokens 的训练,显著提升了代码生成、推理和修复能力。它不仅增强了编码能力,还保持了数学和通用能力的优势。模型为代码智能体等实际应用提供了更全面的基础"
},
"Qwen/Qwen2.5-Coder-7B-Instruct": {
"description": "Qwen2.5-Coder-7B-Instruct 是阿里云发布的代码特定大语言模型系列的最新版本。该模型在 Qwen2.5 的基础上,通过 5.5 万亿个 tokens 的训练,显著提升了代码生成、推理和修复能力。它不仅增强了编码能力,还保持了数学和通用能力的优势。模型为代码智能体等实际应用提供了更全面的基础"
},
"Qwen/Qwen2.5-VL-32B-Instruct": {
"description": "Qwen2.5-VL-32B-Instruct 是通义千问团队推出的多模态大模型,是 Qwen2.5-VL 系列的一部分。该模型不仅精通识别常见物体,还能分析图像中的文本、图表、图标、图形和布局。它可作为视觉智能体,能够推理并动态操控工具,具备使用电脑和手机的能力。此外,这个模型可以精确定位图像中的对象,并为发票、表格等生成结构化输出。相比前代模型 Qwen2-VL,该版本在数学和问题解决能力方面通过强化学习得到了进一步提升,响应风格也更符合人类偏好。"
},
"Qwen/Qwen2.5-VL-72B-Instruct": {
"description": "Qwen2.5-VL 是 Qwen2.5 系列中的视觉语言模型。该模型在多方面有显著提升:具备更强的视觉理解能力,能够识别常见物体、分析文本、图表和布局;作为视觉代理能够推理并动态指导工具使用;支持理解超过 1 小时的长视频并捕捉关键事件;能够通过生成边界框或点准确定位图像中的物体;支持生成结构化输出,尤其适用于发票、表格等扫描数据。"
},
"Qwen/Qwen3-14B": {
"description": "Qwen3是一款能力大幅提升的新一代通义千问大模型,在推理、通用、Agent和多语言等多个核心能力上均达到业界领先水平,并支持思考模式切换。"
},
"Qwen/Qwen3-235B-A22B": {
"description": "Qwen3是一款能力大幅提升的新一代通义千问大模型,在推理、通用、Agent和多语言等多个核心能力上均达到业界领先水平,并支持思考模式切换。"
},
"Qwen/Qwen3-235B-A22B-Instruct-2507": {
"description": "Qwen3-235B-A22B-Instruct-2507 是由阿里云通义千问团队开发的 Qwen3 系列中的一款旗舰级混合专家(MoE)大语言模型。该模型拥有 2350 亿总参数,每次推理激活 220 亿参数。它是作为 Qwen3-235B-A22B 非思考模式的更新版本发布的,专注于在指令遵循、逻辑推理、文本理解、数学、科学、编程及工具使用等通用能力上实现显著提升。此外,模型增强了对多语言长尾知识的覆盖,并能更好地对齐用户在主观和开放性任务上的偏好,以生成更有帮助和更高质量的文本。"
},
"Qwen/Qwen3-235B-A22B-Thinking-2507": {
"description": "Qwen3-235B-A22B-Thinking-2507 是由阿里巴巴通义千问团队开发的 Qwen3 系列大型语言模型中的一员,专注于高难度的复杂推理任务。该模型基于混合专家(MoE)架构,总参数量达 2350 亿,而在处理每个 token 时仅激活约 220 亿参数,从而在保持强大性能的同时提高了计算效率。作为一个专门的“思考”模型,它在逻辑推理、数学、科学、编程和学术基准测试等需要人类专业知识的任务上表现显著提升,达到了开源思考模型中的顶尖水平。此外,模型还增强了通用能力,如指令遵循、工具使用和文本生成,并原生支持 256K 的长上下文理解能力,非常适合用于需要深度推理和处理长文档的场景。"
},
"Qwen/Qwen3-30B-A3B": {
"description": "Qwen3是一款能力大幅提升的新一代通义千问大模型,在推理、通用、Agent和多语言等多个核心能力上均达到业界领先水平,并支持思考模式切换。"
},
"Qwen/Qwen3-30B-A3B-Instruct-2507": {
"description": "Qwen3-30B-A3B-Instruct-2507 是 Qwen3-30B-A3B 非思考模式的更新版本。这是一个拥有 305 亿总参数和 33 亿激活参数的混合专家(MoE)模型。该模型在多个方面进行了关键增强,包括显著提升了指令遵循、逻辑推理、文本理解、数学、科学、编码和工具使用等通用能力。同时,它在多语言的长尾知识覆盖范围上取得了实质性进展,并能更好地与用户在主观和开放式任务中的偏好对齐,从而能够生成更有帮助的回复和更高质量的文本。此外,该模型的长文本理解能力也增强到了 256K。此模型仅支持非思考模式,其输出中不会生成 `<think></think>` 标签。"
},
"Qwen/Qwen3-30B-A3B-Thinking-2507": {
"description": "Qwen3-30B-A3B-Thinking-2507 是由阿里巴巴通义千问团队发布的 Qwen3 系列的最新思考模型。作为一个拥有 305 亿总参数和 33 亿激活参数的混合专家(MoE)模型,它专注于提升复杂任务的处理能力。该模型在逻辑推理、数学、科学、编程和需要人类专业知识的学术基准测试上表现出显著的性能提升。同时,它在指令遵循、工具使用、文本生成和与人类偏好对齐等通用能力方面也得到了显著增强。模型原生支持 256K 的长上下文理解能力,并可扩展至 100 万 tokens。此版本专为“思考模式”设计,旨在通过详尽的逐步推理来解决高度复杂的任务,其 Agent 智能体能力也表现出色。"
},
"Qwen/Qwen3-32B": {
"description": "Qwen3是一款能力大幅提升的新一代通义千问大模型,在推理、通用、Agent和多语言等多个核心能力上均达到业界领先水平,并支持思考模式切换。"
},
"Qwen/Qwen3-8B": {
"description": "Qwen3是一款能力大幅提升的新一代通义千问大模型,在推理、通用、Agent和多语言等多个核心能力上均达到业界领先水平,并支持思考模式切换。"
},
"Qwen/Qwen3-Coder-30B-A3B-Instruct": {
"description": "Qwen3-Coder-30B-A3B-Instruct 是由阿里巴巴通义千问团队开发的 Qwen3 系列中的代码模型。作为一个经过精简优化的模型,它在保持高性能和高效率的同时,专注于提升代码处理能力。该模型在代理式编程(Agentic Coding)、自动化浏览器操作和工具调用等复杂任务上,于开源模型中表现出显著的性能优势。它原生支持 256K tokens 的长上下文,并可扩展至 1M tokens,从而能够更好地进行代码库级别的理解和处理。此外,该模型为 Qwen Code、CLINE 等平台提供了强大的代理编码支持,并设计了专门的函数调用格式。"
},
"Qwen/Qwen3-Coder-480B-A35B-Instruct": {
"description": "Qwen3-Coder-480B-A35B-Instruct 是由阿里巴巴发布的、迄今为止最具代理(Agentic)能力的代码模型。它是一个拥有 4800 亿总参数和 350 亿激活参数的混合专家(MoE)模型,在效率和性能之间取得了平衡。该模型原生支持 256K(约 26 万) tokens 的上下文长度,并可通过 YaRN 等外推方法扩展至 100 万 tokens,使其能够处理大规模代码库和复杂的编程任务。Qwen3-Coder 专为代理式编码工作流设计,不仅能生成代码,还能与开发工具和环境自主交互,以解决复杂的编程问题。在多个编码和代理任务的基准测试中,该模型在开源模型中取得了顶尖水平,其性能可与 Claude Sonnet 4 等领先模型相媲美。"
},
"Qwen/Qwen3-Next-80B-A3B-Instruct": {
"description": "Qwen3-Next-80B-A3B-Instruct 是由阿里巴巴通义千问团队发布的下一代基础模型。它基于全新的 Qwen3-Next 架构,旨在实现极致的训练和推理效率。该模型采用了创新的混合注意力机制(Gated DeltaNet 和 Gated Attention)、高稀疏度混合专家(MoE)结构以及多项训练稳定性优化。作为一个拥有 800 亿总参数的稀疏模型,它在推理时仅需激活约 30 亿参数,从而大幅降低了计算成本,并在处理超过 32K tokens 的长上下文任务时,推理吞吐量比 Qwen3-32B 模型高出 10 倍以上。此模型为指令微调版本,专为通用任务设计,不支持思维链(Thinking)模式。在性能上,它与通义千问的旗舰模型 Qwen3-235B 在部分基准测试中表现相当,尤其在超长上下文任务中展现出明显优势。"
},
"Qwen/Qwen3-Next-80B-A3B-Thinking": {
"description": "Qwen3-Next-80B-A3B-Thinking 是由阿里巴巴通义千问团队发布的、专为复杂推理任务设计的下一代基础模型。它基于创新的 Qwen3-Next 架构,该架构融合了混合注意力机制(Gated DeltaNet 与 Gated Attention)和高稀疏度混合专家(MoE)结构,旨在实现极致的训练与推理效率。作为一个总参数达 800 亿的稀疏模型,它在推理时仅激活约 30 亿参数,大幅降低了计算成本,在处理超过 32K tokens 的长上下文任务时,吞吐量比 Qwen3-32B 模型高出 10 倍以上。此“Thinking”版本专为执行数学证明、代码综合、逻辑分析和规划等高难度多步任务而优化,并默认以结构化的“思维链”形式输出推理过程。在性能上,它不仅超越了 Qwen3-32B-Thinking 等成本更高的模型,还在多个基准测试中优于 Gemini-2.5-Flash-Thinking。"
},
"Qwen/Qwen3-Omni-30B-A3B-Captioner": {
"description": "Qwen3-Omni-30B-A3B-Captioner 是阿里巴巴通义千问团队 Qwen3 系列中的一款视觉语言模型(VLM)。它专门用于生成高质量、详细且准确的图像描述。该模型基于 300 亿总参数的混合专家(MoE)架构,能够深入理解图像内容并将其转化为自然流畅的文字描述。它在图像细节捕捉、场景理解、物体识别和关系推理等方面表现卓越,特别适合需要精确图像理解和描述生成的应用场景。"
},
"Qwen/Qwen3-Omni-30B-A3B-Instruct": {
"description": "Qwen3-Omni-30B-A3B-Instruct 是阿里巴巴通义千问团队最新 Qwen3 系列中的一员。它是一个拥有 300 亿总参数和 30 亿激活参数的混合专家(MoE)模型,在保持强大性能的同时有效降低了推理成本。该模型在高质量、多来源、多语言的数据上进行训练,具备强大的通用能力,支持全模态输入处理,包括文本、图像、音频和视频,能够理解和生成跨模态的内容。"
},
"Qwen/Qwen3-Omni-30B-A3B-Thinking": {
"description": "Qwen3-Omni-30B-A3B-Thinking 是 Qwen3-Omni 全模态模型中的核心\"思考者\"(Thinker)组件。它专门负责处理包括文本、音频、图像和视频在内的多模态输入,并执行复杂的思维链推理。作为推理的大脑,该模型将所有输入统一到通用的表征空间中,实现跨模态的深度理解和复杂推理能力。该模型基于混合专家(MoE)架构,拥有 300 亿总参数和 30 亿激活参数,能够在保持强大推理能力的同时优化计算效率。"
},
"Qwen/Qwen3-VL-235B-A22B-Instruct": {
"description": "Qwen3-VL-235B-A22B-Instruct 是 Qwen3-VL 系列的大型指令微调模型,基于混合专家(MoE)架构,拥有卓越的多模态理解与生成能力,原生支持 256K 上下文,适用于高并发生产级多模态服务。"
},
"Qwen/Qwen3-VL-235B-A22B-Thinking": {
"description": "Qwen3-VL-235B-A22B-Thinking 是 Qwen3-VL 系列中的旗舰思考版本,针对复杂多模态推理、长上下文推理与智能体交互进行了专项优化,适合需要深度思考与视觉推理的企业级场景。"
},
"Qwen/Qwen3-VL-30B-A3B-Instruct": {
"description": "Qwen3-VL-30B-A3B-Instruct 是 Qwen3-VL 系列的指令微调版本,具有强大的视觉-语言理解与生成能力,原生支持 256K 上下文长度,适合多模态对话与图像条件生成任务。"
},
"Qwen/Qwen3-VL-30B-A3B-Thinking": {
"description": "Qwen3-VL-30B-A3B-Thinking 是 Qwen3-VL 的推理增强版本(Thinking),在多模态推理、图像到代码和复杂视觉理解任务上进行了优化,支持 256K 上下文并具备更强的链式思考能力。"
},
"Qwen/Qwen3-VL-32B-Instruct": {
"description": "Qwen3-VL-32B-Instruct 是阿里巴巴通义千问团队推出的视觉语言模型,在多个视觉语言基准测试中取得了领先的 SOTA 性能。该模型支持百万像素级别的高分辨率图像输入,并具备强大的通用视觉理解、多语言 OCR、细粒度视觉定位和视觉对话能力。作为 Qwen3 系列中的视觉语言模型,它能够处理复杂的多模态任务,支持工具调用和前缀续写等高级功能。"
},
"Qwen/Qwen3-VL-32B-Thinking": {
"description": "Qwen3-VL-32B-Thinking 是阿里巴巴通义千问团队推出的视觉语言模型中一个为复杂视觉推理任务特别优化的版本。该模型内置了\"思考模式\",使其在回答问题前能够生成详细的中间推理步骤,从而显著增强其在需要多步逻辑、规划和复杂推理的任务上的表现。该模型支持百万像素级别的高分辨率图像输入,具备强大的通用视觉理解、多语言 OCR、细粒度视觉定位和视觉对话能力,并支持工具调用和前缀续写等功能。"
},
"Qwen/Qwen3-VL-8B-Instruct": {
"description": "Qwen3-VL-8B-Instruct 是 Qwen3 系列的视觉语言模型,基于 Qwen3-8B-Instruct 开发并在大量图文数据上训练,擅长通用视觉理解、以视觉为中心的对话以及图像中的多语言文本识别。适用于视觉问答、图像描述、多模态指令跟随与工具调用场景。"
},
"Qwen/Qwen3-VL-8B-Thinking": {
"description": "Qwen3-VL-8B-Thinking 是 Qwen3 系列的视觉思考版本,针对复杂多步推理任务优化,默认在回答前生成逐步思考(thinking chain)以提高推理准确性。适合需要深度推理的视觉问答、审阅图像内容并给出详细分析的场景。"
},
"Qwen2-72B-Instruct": {
"description": "Qwen2 是 Qwen 模型的最新系列,支持 128k 上下文,对比当前最优的开源模型,Qwen2-72B 在自然语言理解、知识、代码、数学及多语言等多项能力上均显著超越当前领先的模型。"
},
"Qwen2-7B-Instruct": {
"description": "Qwen2 是 Qwen 模型的最新系列,能够超越同等规模的最优开源模型甚至更大规模的模型,Qwen2 7B 在多个评测上取得显著的优势,尤其是代码及中文理解上。"
},
"Qwen2-VL-72B": {
"description": "Qwen2-VL-72B是一款强大的视觉语言模型,支持图像与文本的多模态处理,能够精确识别图像内容并生成相关描述或回答。"
},
"Qwen2.5-14B-Instruct": {
"description": "Qwen2.5-14B-Instruct 是一款 140 亿参数的大语言模型,性能表现优秀,优化中文和多语言场景,支持智能问答、内容生成等应用。"
},
"Qwen2.5-32B-Instruct": {
"description": "Qwen2.5-32B-Instruct 是一款 320 亿参数的大语言模型,性能表现均衡,优化中文和多语言场景,支持智能问答、内容生成等应用。"
},
"Qwen2.5-72B-Instruct": {
"description": "面向中文和英文的 LLM,针对语言、编程、数学、推理等领域。"
},
"Qwen2.5-7B-Instruct": {
"description": "Qwen2.5-7B-Instruct 是一款 70 亿参数的大语言模型,支持 function call 与外部系统无缝交互,极大提升了灵活性和扩展性。优化中文和多语言场景,支持智能问答、内容生成等应用。"
},
"Qwen2.5-Coder-14B-Instruct": {
"description": "Qwen2.5-Coder-14B-Instruct 是一款基于大规模预训练的编程指令模型,具备强大的代码理解和生成能力,能够高效地处理各种编程任务,特别适合智能代码编写、自动化脚本生成和编程问题解答。"
},
"Qwen2.5-Coder-32B-Instruct": {
"description": "高级 LLM,支持代码生成、推理和修复,涵盖主流编程语言。"
},
"Qwen3-235B": {
"description": "Qwen3-235B-A22B,MoE(混合专家模型)模型,引入了“混合推理模式”,支持用户在“思考模式”和“非思考模式”之间无缝切换,支持119种语言和方言理解与推理,并具备强大的工具调用能力,在综合能力、代码与数学、多语言能力、知识与推理等多项基准测试中,都能与DeepSeek R1、OpenAI o1、o3-mini、Grok 3和谷歌Gemini 2.5 Pro等目前市场上的主流大模型竞争。"
},
"Qwen3-235B-A22B-Instruct-2507-FP8": {
"description": "Qwen3 235B A22B Instruct 2507:面向高级推理与对话指令优化的模型,混合专家架构以在大规模参数下保持推理效率。"
},
"Qwen3-32B": {
"description": "Qwen3-32B,稠密模型(Dense Model),引入了“混合推理模式”,支持用户在“思考模式”和“非思考模式”之间无缝切换,由于模型架构改进、训练数据增加以及更有效的训练方法,整体性能与Qwen2.5-72B表现相当。"
},
"SenseChat": {
"description": "基础版本模型 (V4),4K上下文长度,通用能力强大"
},
"SenseChat-128K": {
"description": "基础版本模型 (V4),128K上下文长度,在长文本理解及生成等任务中表现出色"
},
"SenseChat-32K": {
"description": "基础版本模型 (V4),32K上下文长度,灵活应用于各类场景"
},
"SenseChat-5": {
"description": "最新版本模型 (V5.5),128K上下文长度,在数学推理、英文对话、指令跟随以及长文本理解等领域能力显著提升,比肩GPT-4o。"
},
"SenseChat-5-1202": {
"description": "是基于V5.5的最新版本,较上版本在中英文基础能力,聊天,理科知识, 文科知识,写作,数理逻辑,字数控制 等几个维度的表现有显著提升。"
},
"SenseChat-5-Cantonese": {
"description": "专门为适应香港地区的对话习惯、俚语及本地知识而设计,在粤语的对话理解上超越了GPT-4,在知识、推理、数学及代码编写等多个领域均能与GPT-4 Turbo相媲美。"
},
"SenseChat-5-beta": {
"description": "部分性能优于 SenseCat-5-1202"
},
"SenseChat-Character": {
"description": "拟人对话标准版模型,8K上下文长度,高响应速度"
},
"SenseChat-Character-Pro": {
"description": "拟人对话高级版模型,32K上下文长度,能力全面提升,支持中/英文对话"
},
"SenseChat-Turbo": {
"description": "适用于快速问答、模型微调场景"
},
"SenseChat-Turbo-1202": {
"description": "是最新的轻量版本模型,达到全量模型90%以上能力,显著降低推理成本。"
},
"SenseChat-Vision": {
"description": "最新版本模型 (V5.5),支持多图的输入,全面实现模型基础能力优化,在对象属性识别、空间关系、动作事件识别、场景理解、情感识别、逻辑常识推理和文本理解生成上都实现了较大提升。"
},
"SenseNova-V6-5-Pro": {
"description": "通过对多模态、语言及推理数据的全面更新与训练策略的优化,新模型在多模态推理和泛化指令跟随能力上实现了显著提升,支持高达128k的上下文窗口,并在OCR与文旅IP识别等专项任务中表现卓越。"
},
"SenseNova-V6-5-Turbo": {
"description": "通过对多模态、语言及推理数据的全面更新与训练策略的优化,新模型在多模态推理和泛化指令跟随能力上实现了显著提升,支持高达128k的上下文窗口,并在OCR与文旅IP识别等专项任务中表现卓越。"
},
"SenseNova-V6-Pro": {
"description": "实现图片、文本、视频能力的原生统一,突破传统多模态分立局限,在OpenCompass和SuperCLUE评测中斩获双冠军。"
},
"SenseNova-V6-Reasoner": {
"description": "兼顾视觉、语言深度推理,实现慢思考和深度推理,呈现完整的思维链过程。"
},
"SenseNova-V6-Turbo": {
"description": "实现图片、文本、视频能力的原生统一,突破传统多模态分立局限,在多模基础能力、语言基础能力等核心维度全面领先,文理兼修,在多项测评中多次位列国内外第一梯队水平。"
},
"Skylark2-lite-8k": {
"description": "云雀(Skylark)第二代模型,Skylark2-lite模型有较高的响应速度,适用于实时性要求高、成本敏感、对模型精度要求不高的场景,上下文窗口长度为8k。"
},
"Skylark2-pro-32k": {
"description": "云雀(Skylark)第二代模型,Skylark2-pro版本有较高的模型精度,适用于较为复杂的文本生成场景,如专业领域文案生成、小说创作、高质量翻译等,上下文窗口长度为32k。"
},
"Skylark2-pro-4k": {
"description": "云雀(Skylark)第二代模型,Skylark2-pro模型有较高的模型精度,适用于较为复杂的文本生成场景,如专业领域文案生成、小说创作、高质量翻译等,上下文窗口长度为4k。"
},
"Skylark2-pro-character-4k": {
"description": "云雀(Skylark)第二代模型,Skylark2-pro-character模型具有优秀的角色扮演和聊天能力,擅长根据用户prompt要求扮演不同角色与用户展开聊天,角色风格突出,对话内容自然流畅,适用于构建聊天机器人、虚拟助手和在线客服等场景,有较高的响应速度。"
},
"Skylark2-pro-turbo-8k": {
"description": "云雀(Skylark)第二代模型,Skylark2-pro-turbo-8k推理更快,成本更低,上下文窗口长度为8k。"
},
"THUDM/GLM-4-32B-0414": {
"description": "GLM-4-32B-0414 是 GLM 系列的新一代开源模型,拥有 320 亿参数。该模型性能可与 OpenAI 的 GPT 系列和 DeepSeek 的 V3/R1 系列相媲美。"
},
"THUDM/GLM-4-9B-0414": {
"description": "GLM-4-9B-0414 是 GLM 系列的小型模型,拥有 90 亿参数。该模型继承了 GLM-4-32B 系列的技术特点,但提供了更轻量级的部署选择。尽管规模较小,GLM-4-9B-0414 仍在代码生成、网页设计、SVG 图形生成和基于搜索的写作等任务上展现出色能力。"
},
"THUDM/GLM-4.1V-9B-Thinking": {
"description": "GLM-4.1V-9B-Thinking 是由智谱 AI 和清华大学 KEG 实验室联合发布的一款开源视觉语言模型(VLM),专为处理复杂的多模态认知任务而设计。该模型基于 GLM-4-9B-0414 基础模型,通过引入“思维链”(Chain-of-Thought)推理机制和采用强化学习策略,显著提升了其跨模态的推理能力和稳定性。"
},
"THUDM/GLM-Z1-32B-0414": {
"description": "GLM-Z1-32B-0414 是一个具有深度思考能力的推理模型。该模型基于 GLM-4-32B-0414 通过冷启动和扩展强化学习开发,并在数学、代码和逻辑任务上进行了进一步训练。与基础模型相比,GLM-Z1-32B-0414 显著提升了数学能力和解决复杂任务的能力。"
},
"THUDM/GLM-Z1-9B-0414": {
"description": "GLM-Z1-9B-0414 是 GLM 系列的小型模型,仅有 90 亿参数,但保持了开源传统的同时展现出惊人的能力。尽管规模较小,该模型在数学推理和通用任务上仍表现出色,其总体性能在同等规模的开源模型中已处于领先水平。"
},
"THUDM/GLM-Z1-Rumination-32B-0414": {
"description": "GLM-Z1-Rumination-32B-0414 是一个具有沉思能力的深度推理模型(与 OpenAI 的 Deep Research 对标)。与典型的深度思考模型不同,沉思模型采用更长时间的深度思考来解决更开放和复杂的问题。"
},
"THUDM/glm-4-9b-chat": {
"description": "GLM-4-9B-Chat 是智谱 AI 推出的 GLM-4 系列预训练模型中的开源版本。该模型在语义、数学、推理、代码和知识等多个方面表现出色。除了支持多轮对话外,GLM-4-9B-Chat 还具备网页浏览、代码执行、自定义工具调用(Function Call)和长文本推理等高级功能。模型支持 26 种语言,包括中文、英文、日语、韩语和德语等。在多项基准测试中,GLM-4-9B-Chat 展现了优秀的性能,如 AlignBench-v2、MT-Bench、MMLU 和 C-Eval 等。该模型支持最大 128K 的上下文长度,适用于学术研究和商业应用"
},
"Tongyi-Zhiwen/QwenLong-L1-32B": {
"description": "QwenLong-L1-32B 是首个使用强化学习训练的长上下文大型推理模型(LRM),专门针对长文本推理任务进行优化。该模型通过渐进式上下文扩展的强化学习框架,实现了从短上下文到长上下文的稳定迁移。在七个长上下文文档问答基准测试中,QwenLong-L1-32B 超越了 OpenAI-o3-mini 和 Qwen3-235B-A22B 等旗舰模型,性能可媲美 Claude-3.7-Sonnet-Thinking。该模型特别擅长数学推理、逻辑推理和多跳推理等复杂任务。"
},
"Yi-34B-Chat": {
"description": "Yi-1.5-34B 在保持原系列模型优秀的通用语言能力的前提下,通过增量训练 5 千亿高质量 token,大幅提高了数学逻辑、代码能力。"
},
"abab5.5-chat": {
"description": "面向生产力场景,支持复杂任务处理和高效文本生成,适用于专业领域应用。"
},
"abab5.5s-chat": {
"description": "专为中文人设对话场景设计,提供高质量的中文对话生成能力,适用于多种应用场景。"
},
"abab6.5g-chat": {
"description": "专为多语种人设对话设计,支持英文及其他多种语言的高质量对话生成。"
},
"abab6.5s-chat": {
"description": "适用于广泛的自然语言处理任务,包括文本生成、对话系统等。"
},
"abab6.5t-chat": {
"description": "针对中文人设对话场景优化,提供流畅且符合中文表达习惯的对话生成能力。"
},
"accounts/fireworks/models/deepseek-r1": {
"description": "DeepSeek-R1 是一款最先进的大型语言模型,经过强化学习和冷启动数据的优化,具有出色的推理、数学和编程性能。"
},
"accounts/fireworks/models/deepseek-v3": {
"description": "Deepseek 提供的强大 Mixture-of-Experts (MoE) 语言模型,总参数量为 671B,每个标记激活 37B 参数。"
},
"accounts/fireworks/models/llama-v3-70b-instruct": {
"description": "Meta 开发并发布了 Meta Llama 3 系列大语言模型(LLM),该系列包含 8B 和 70B 参数规模的预训练和指令微调生成文本模型。Llama 3 指令微调模型专为对话应用场景优化,并在常见的行业基准测试中优于许多现有的开源聊天模型。"
},
"accounts/fireworks/models/llama-v3-8b-instruct": {
"description": "Meta 开发并发布了 Meta Llama 3 系列大语言模型(LLM),这是一个包含 8B 和 70B 参数规模的预训练和指令微调生成文本模型的集合。Llama 3 指令微调模型专为对话应用场景优化,并在常见的行业基准测试中优于许多现有的开源聊天模型。"
},
"accounts/fireworks/models/llama-v3-8b-instruct-hf": {
"description": "Meta Llama 3 指令微调模型专为对话应用场景优化,并在常见的行业基准测试中优于许多现有的开源聊天模型。Llama 3 8B Instruct(HF 版本)是 Llama 3 8B Instruct 的原始 FP16 版本,其结果应与官方 Hugging Face 实现一致。"
},
"accounts/fireworks/models/llama-v3p1-405b-instruct": {
"description": "Meta Llama 3.1 系列是多语言大语言模型(LLM)集合,包含 8B、70B 和 405B 参数规模的预训练和指令微调生成模型。Llama 3.1 指令微调文本模型(8B、70B、405B)专为多语言对话场景优化,在常见的行业基准测试中优于许多现有的开源和闭源聊天模型。405B 是 Llama 3.1 家族中能力最强的模型。该模型采用 FP8 进行推理,与参考实现高度匹配。"
},
"accounts/fireworks/models/llama-v3p1-70b-instruct": {
"description": "Meta Llama 3.1 系列是多语言大语言模型(LLM)集合,包含 8B、70B 和 405B 三种参数规模的预训练和指令微调生成模型。Llama 3.1 指令微调文本模型(8B、70B、405B)专为多语言对话应用优化,并在常见的行业基准测试中优于许多现有的开源和闭源聊天模型。"
},
"accounts/fireworks/models/llama-v3p1-8b-instruct": {
"description": "Meta Llama 3.1 系列是多语言大语言模型(LLM)集合,包含 8B、70B 和 405B 三种参数规模的预训练和指令微调生成模型。Llama 3.1 指令微调文本模型(8B、70B、405B)专为多语言对话应用优化,并在常见的行业基准测试中优于许多现有的开源和闭源聊天模型。"
},
"accounts/fireworks/models/llama-v3p2-11b-vision-instruct": {
"description": "Meta 推出的指令微调图像推理模型,拥有 110 亿参数。该模型针对视觉识别、图像推理、图片字幕生成以及图片相关的常规问答进行了优化。它能够理解视觉数据,如图表和图形,并通过生成文本描述图像细节,弥合视觉与语言之间的鸿沟。"
},
"accounts/fireworks/models/llama-v3p2-3b-instruct": {
"description": "Llama 3.2 3B Instruct 是 Meta 推出的轻量级多语言模型。该模型专为高效运行而设计,相较于更大型的模型,具有显著的延迟和成本优势。其典型应用场景包括查询和提示重写,以及写作辅助。"
},
"accounts/fireworks/models/llama-v3p2-90b-vision-instruct": {
"description": "Meta 推出的指令微调图像推理模型,拥有 900 亿参数。该模型针对视觉识别、图像推理、图片字幕生成以及图片相关的常规问答进行了优化。它能够理解视觉数据,如图表和图形,并通过生成文本描述图像细节,弥合视觉与语言之间的鸿沟。注意:该模型目前作为无服务器模型进行实验性提供。如果用于生产环境,请注意 Fireworks 可能会在短时间内取消部署该模型。"
},
"accounts/fireworks/models/llama-v3p3-70b-instruct": {
"description": "Llama 3.3 70B Instruct 是 Llama 3.1 70B 的 12 月更新版本。该模型在 Llama 3.1 70B(于 2024 年 7 月发布)的基础上进行了改进,增强了工具调用、多语言文本支持、数学和编程能力。该模型在推理、数学和指令遵循方面达到了行业领先水平,并且能够提供与 3.1 405B 相似的性能,同时在速度和成本上具有显著优势。"
},
"accounts/fireworks/models/mistral-small-24b-instruct-2501": {
"description": "24B 参数模型,具备与更大型模型相当的最先进能力。"
},
"accounts/fireworks/models/mixtral-8x22b-instruct": {
"description": "Mixtral MoE 8x22B Instruct v0.1 是 Mixtral MoE 8x22B v0.1 的指令微调版本,已启用聊天完成功能 API。"
},
"accounts/fireworks/models/mixtral-8x7b-instruct": {
"description": "Mixtral MoE 8x7B Instruct 是 Mixtral MoE 8x7B 的指令微调版本,已启用聊天完成功能 API。"
},
"accounts/fireworks/models/mythomax-l2-13b": {
"description": "MythoMix 的改进版,可能是其更为完善的变体,是 MythoLogic-L2 和 Huginn 的合并,采用了高度实验性的张量类型合并技术。由于其独特的性质,该模型在讲故事和角色扮演方面表现出色。"
},
"accounts/fireworks/models/phi-3-vision-128k-instruct": {
"description": "Phi-3-Vision-128K-Instruct 是一个轻量级的、最先进的开放多模态模型,基于包括合成数据和筛选后的公开网站数据集构建,重点关注文本和视觉方面的高质量、推理密集型数据。该模型属于 Phi-3 模型家族,其多模态版本支持 128K 上下文长度(以标记为单位)。该模型经过严格的增强过程,包括监督微调和直接偏好优化,以确保精确的指令遵循和强大的安全措施。"
},
"accounts/fireworks/models/qwen-qwq-32b-preview": {
"description": "Qwen QwQ 模型专注于推动 AI 推理,并展示了开放模型在推理能力上与闭源前沿模型匹敌的力量。QwQ-32B-Preview 是一个实验性发布版本,在 GPQA、AIME、MATH-500 和 LiveCodeBench 基准测试中,在分析和推理能力上可与 o1 相媲美,并超越 GPT-4o 和 Claude 3.5 Sonnet。注意:该模型目前作为无服务器模型进行实验性提供。如果用于生产环境,请注意 Fireworks 可能会在短时间内取消部署该模型。"
},
"accounts/fireworks/models/qwen2-vl-72b-instruct": {
"description": "Qwen-VL 模型的 72B 版本是阿里巴巴最新迭代的成果,代表了近一年的创新。"
},
"accounts/fireworks/models/qwen2p5-72b-instruct": {
"description": "Qwen2.5 是由 Qwen 团队和阿里云开发的一系列仅解码语言模型,提供 0.5B、1.5B、3B、7B、14B、32B 和 72B 不同参数规模,并包含基础版和指令微调版。"
},
"accounts/fireworks/models/qwen2p5-coder-32b-instruct": {
"description": "Qwen2.5-Coder 是最新一代专为代码设计的 Qwen 大型语言模型(前称为 CodeQwen)。注意:该模型目前作为无服务器模型进行实验性提供。如果用于生产环境,请注意 Fireworks 可能会在短时间内取消部署该模型。"
},
"accounts/yi-01-ai/models/yi-large": {
"description": "Yi-Large 是顶尖的大型语言模型之一,在 LMSYS 基准测试排行榜上,其表现仅次于 GPT-4、Gemini 1.5 Pro 和 Claude 3 Opus。它在多语言能力方面表现卓越,特别是在西班牙语、中文、日语、德语和法语方面。Yi-Large 还具有用户友好性,采用与 OpenAI 相同的 API 定义,便于集成。"
},
"ai21-jamba-1.5-large": {
"description": "一个398B参数(94B活跃)的多语言模型,提供256K长上下文窗口、函数调用、结构化输出和基于事实的生成。"
},
"ai21-jamba-1.5-mini": {
"description": "一个52B参数(12B活跃)的多语言模型,提供256K长上下文窗口、函数调用、结构化输出和基于事实的生成。"
},
"ai21-labs/AI21-Jamba-1.5-Large": {
"description": "一个398B参数(94B活跃)的多语言模型,提供256K长上下文窗口、函数调用、结构化输出和基于事实的生成。"
},
"ai21-labs/AI21-Jamba-1.5-Mini": {
"description": "一个52B参数(12B活跃)的多语言模型,提供256K长上下文窗口、函数调用、结构化输出和基于事实的生成。"
},
"alibaba/qwen-3-14b": {
"description": "Qwen3 是 Qwen 系列中最新一代的大型语言模型,提供了一套全面的密集和混合专家 (MoE) 模型。基于广泛的训练构建,Qwen3 在推理、指令遵循、代理能力和多语言支持方面提供了突破性的进展。"
},
"alibaba/qwen-3-235b": {
"description": "Qwen3 是 Qwen 系列中最新一代的大型语言模型,提供了一套全面的密集和混合专家 (MoE) 模型。基于广泛的训练构建,Qwen3 在推理、指令遵循、代理能力和多语言支持方面提供了突破性的进展。"
},
"alibaba/qwen-3-30b": {
"description": "Qwen3 是 Qwen 系列中最新一代的大型语言模型,提供了一套全面的密集和混合专家 (MoE) 模型。基于广泛的训练构建,Qwen3 在推理、指令遵循、代理能力和多语言支持方面提供了突破性的进展。"
},
"alibaba/qwen-3-32b": {
"description": "Qwen3 是 Qwen 系列中最新一代的大型语言模型,提供了一套全面的密集和混合专家 (MoE) 模型。基于广泛的训练构建,Qwen3 在推理、指令遵循、代理能力和多语言支持方面提供了突破性的进展。"
},
"alibaba/qwen3-coder": {
"description": "Qwen3-Coder-480B-A35B-Instruct 是 Qwen 最具代理性的代码模型,在代理编码、代理浏览器使用和其他基础编码任务方面具有显著性能,达到了与 Claude Sonnet 相当的结果。"
},
"amazon/nova-lite": {
"description": "一个非常低成本的多模态模型,处理图像、视频和文本输入的速度极快。"
},
"amazon/nova-micro": {
"description": "一个仅文本模型,以非常低的成本提供最低延迟的响应。"
},
"amazon/nova-pro": {
"description": "一个高度能干的多模态模型,具有准确性、速度和成本的最佳组合,适用于广泛的任务。"
},
"amazon/titan-embed-text-v2": {
"description": "Amazon Titan Text Embeddings V2 是一个轻量级、高效的多语言嵌入模型,支持 1024、512 和 256 维度。"
},
"anthropic.claude-3-5-sonnet-20240620-v1:0": {
"description": "Claude 3.5 Sonnet 提升了行业标准,性能超过竞争对手模型和 Claude 3 Opus,在广泛的评估中表现出色,同时具有我们中等层级模型的速度和成本。"
},
"anthropic.claude-3-5-sonnet-20241022-v2:0": {
"description": "Claude 3.5 Sonnet 提升了行业标准,性能超过竞争对手模型和 Claude 3 Opus,在广泛的评估中表现出色,同时具有我们中等层级模型的速度和成本。"
},
"anthropic.claude-3-haiku-20240307-v1:0": {
"description": "Claude 3 Haiku 是 Anthropic 最快、最紧凑的模型,提供近乎即时的响应速度。它可以快速回答简单的查询和请求。客户将能够构建模仿人类互动的无缝 AI 体验。Claude 3 Haiku 可以处理图像并返回文本输出,具有 200K 的上下文窗口。"
},
"anthropic.claude-3-opus-20240229-v1:0": {
"description": "Claude 3 Opus 是 Anthropic 最强大的 AI 模型,具有在高度复杂任务上的最先进性能。它可以处理开放式提示和未见过的场景,具有出色的流畅性和类人的理解能力。Claude 3 Opus 展示了生成 AI 可能性的前沿。Claude 3 Opus 可以处理图像并返回文本输出,具有 200K 的上下文窗口。"
},
"anthropic.claude-3-sonnet-20240229-v1:0": {
"description": "Anthropic 的 Claude 3 Sonnet 在智能和速度之间达到了理想的平衡——特别适合企业工作负载。它以低于竞争对手的价格提供最大的效用,并被设计成为可靠的、高耐用的主力机,适用于规模化的 AI 部署。Claude 3 Sonnet 可以处理图像并返回文本输出,具有 200K 的上下文窗口。"
},
"anthropic.claude-instant-v1": {
"description": "一款快速、经济且仍然非常有能力的模型,可以处理包括日常对话、文本分析、总结和文档问答在内的一系列任务。"
},
"anthropic.claude-v2": {
"description": "Anthropic 在从复杂对话和创意内容生成到详细指令跟随的广泛任务中都表现出高度能力的模型。"
},
"anthropic.claude-v2:1": {
"description": "Claude 2 的更新版,具有双倍的上下文窗口,以及在长文档和 RAG 上下文中的可靠性、幻觉率和基于证据的准确性的改进。"
},
"anthropic/claude-3-haiku": {
"description": "Claude 3 Haiku 是 Anthropic 迄今为止最快的模型,专为通常涉及较长提示的企业工作负载而设计。Haiku 可以快速分析大量文档,如季度文件、合同或法律案件,成本是其性能等级中其他模型的一半。"
},
"anthropic/claude-3-opus": {
"description": "Claude 3 Opus 是 Anthropic 最智能的模型,在高度复杂的任务上具有市场领先的性能。它能够以卓越的流畅度和类人理解力驾驭开放式提示和前所未见的场景。"
},
"anthropic/claude-3.5-haiku": {
"description": "Claude 3.5 Haiku 是我们最快模型的下一代。与 Claude 3 Haiku 的速度相似,Claude 3.5 Haiku 在每个技能集上都得到了改进,并在许多智能基准测试中超越了我们上一代最大的模型 Claude 3 Opus。"
},
"anthropic/claude-3.5-sonnet": {
"description": "Claude 3.5 Sonnet 在智能和速度之间达到了理想的平衡——特别是对于企业工作负载。与同类产品相比,它以更低的成本提供了强大的性能,并专为大规模 AI 部署中的高耐久性而设计。"
},
"anthropic/claude-3.7-sonnet": {
"description": "Claude 3.7 Sonnet 是第一个混合推理模型,也是 Anthropic 迄今为止最智能的模型。它在编码、内容生成、数据分析和规划任务方面提供了最先进的性能,在其前身 Claude 3.5 Sonnet 的软件工程和计算机使用能力基础上进行了构建。"
},
"anthropic/claude-opus-4": {
"description": "Claude Opus 4 是 Anthropic 迄今为止最强大的模型,也是世界上最好的编码模型,在 SWE-bench (72.5%) 和 Terminal-bench (43.2%) 上领先。它为需要专注努力和数千个步骤的长期任务提供持续性能,能够连续工作数小时——显著扩展了 AI 代理的能力。"
},
"anthropic/claude-opus-4.1": {
"description": "Claude Opus 4.1 是 Opus 4 的即插即用替代品,为实际编码和代理任务提供卓越的性能和精度。Opus 4.1 将最先进的编码性能提升到 SWE-bench Verified 的 74.5%,并以更高的严谨性和对细节的关注处理复杂的多步问题。"
},
"anthropic/claude-sonnet-4": {
"description": "Claude Sonnet 4 在 Sonnet 3.7 的行业领先能力基础上进行了显著改进,在编码方面表现出色,在 SWE-bench 上达到了最先进的 72.7%。该模型在性能和效率之间取得了平衡,适用于内部和外部用例,并通过增强的可控性实现对实现的更大控制。"
},
"anthropic/claude-sonnet-4.5": {
"description": "Claude Sonnet 4.5 是 Anthropic 迄今为止最智能的模型。"
},
"ascend-tribe/pangu-pro-moe": {
"description": "Pangu-Pro-MoE 72B-A16B 是一款 720 亿参数、激活 160 亿参的稀疏大语言模型,它基于分组混合专家(MoGE)架构,它在专家选择阶段对专家进行分组,并约束 token 在每个组内激活等量专家,从而实现专家负载均衡,显著提升模型在昇腾平台的部署效率。"
},
"aya": {
"description": "Aya 23 是 Cohere 推出的多语言模型,支持 23 种语言,为多元化语言应用提供便利。"
},
"aya:35b": {
"description": "Aya 23 是 Cohere 推出的多语言模型,支持 23 种语言,为多元化语言应用提供便利。"
},
"azure-DeepSeek-R1-0528": {
"description": "由微软部署提供; DeepSeek R1型号已进行小版本升级,当前版本为DeepSeek-R1-0528。在最新的更新中,DeepSeek R1通过增加计算资源和引入后训练阶段的算法优化机制,大幅提升了推理深度和推断能力。该模型在数学、编程和通用逻辑等多个基准测试中表现出色,其整体性能已接近领先模型,如O3和Gemini 2.5 Pro 。"
},
"baichuan-m2-32b": {
"description": "Baichuan M2 32B 是百川智能推出的混合专家模型,具备强大的推理能力。"
},
"baichuan/baichuan2-13b-chat": {
"description": "Baichuan-13B 百川智能开发的包含 130 亿参数的开源可商用的大规模语言模型,在权威的中文和英文 benchmark 上均取得同尺寸最好的效果"
},
"baidu/ERNIE-4.5-300B-A47B": {
"description": "ERNIE-4.5-300B-A47B 是由百度公司开发的一款基于混合专家(MoE)架构的大语言模型。该模型总参数量为 3000 亿,但在推理时每个 token 仅激活 470 亿参数,从而在保证强大性能的同时兼顾了计算效率。作为 ERNIE 4.5 系列的核心模型之一,在文本理解、生成、推理和编程等任务上展现出卓越的能力。该模型采用了一种创新的多模态异构 MoE 预训练方法,通过文本与视觉模态的联合训练,有效提升了模型的综合能力,尤其在指令遵循和世界知识记忆方面效果突出。"
},
"c4ai-aya-expanse-32b": {
"description": "Aya Expanse 是一款高性能的 32B 多语言模型,旨在通过指令调优、数据套利、偏好训练和模型合并的创新,挑战单语言模型的表现。它支持 23 种语言。"
},
"c4ai-aya-expanse-8b": {
"description": "Aya Expanse 是一款高性能的 8B 多语言模型,旨在通过指令调优、数据套利、偏好训练和模型合并的创新,挑战单语言模型的表现。它支持 23 种语言。"
},
"c4ai-aya-vision-32b": {
"description": "Aya Vision 是一款最先进的多模态模型,在语言、文本和图像能力的多个关键基准上表现出色。它支持 23 种语言。这个 320 亿参数的版本专注于最先进的多语言表现。"
},
"c4ai-aya-vision-8b": {
"description": "Aya Vision 是一款最先进的多模态模型,在语言、文本和图像能力的多个关键基准上表现出色。这个 80 亿参数的版本专注于低延迟和最佳性能。"
},
"charglm-3": {
"description": "CharGLM-3 专为角色扮演与情感陪伴设计,支持超长多轮记忆与个性化对话,应用广泛。"
},
"charglm-4": {
"description": "CharGLM-4 专为角色扮演与情感陪伴设计,支持超长多轮记忆与个性化对话,应用广泛。"
},
"chatgpt-4o-latest": {
"description": "ChatGPT-4o 是一款动态模型,实时更新以保持当前最新版本。它结合了强大的语言理解与生成能力,适合于大规模应用场景,包括客户服务、教育和技术支持。"
},
"claude-2.0": {
"description": "Claude 2 为企业提供了关键能力的进步,包括业界领先的 200K token 上下文、大幅降低模型幻觉的发生率、系统提示以及一个新的测试功能:工具调用。"
},
"claude-2.1": {
"description": "Claude 2 为企业提供了关键能力的进步,包括业界领先的 200K token 上下文、大幅降低模型幻觉的发生率、系统提示以及一个新的测试功能:工具调用。"
},
"claude-3-5-haiku-20241022": {
"description": "Claude 3.5 Haiku 是 Anthropic 最快的下一代模型。与 Claude 3 Haiku 相比,Claude 3.5 Haiku 在各项技能上都有所提升,并在许多智力基准测试中超越了上一代最大的模型 Claude 3 Opus。"
},
"claude-3-5-haiku-latest": {
"description": "Claude 3.5 Haiku 提供快速响应,适合轻量级任务。"
},
"claude-3-5-sonnet-20240620": {
"description": "Claude 3.5 Sonnet 提供了超越 Opus 的能力和比 Sonnet 更快的速度,同时保持与 Sonnet 相同的价格。Sonnet 特别擅长编程、数据科学、视觉处理、代理任务。"
},
"claude-3-5-sonnet-20241022": {
"description": "Claude 3.5 Sonnet 提供了超越 Opus 的能力和比 Sonnet 更快的速度,同时保持与 Sonnet 相同的价格。Sonnet 特别擅长编程、数据科学、视觉处理、代理任务。"
},
"claude-3-7-sonnet-20250219": {
"description": "Claude 3.7 Sonnet 是 Anthropic 迄今为止最智能的模型,也是市场上首个混合推理模型。Claude 3.7 Sonnet 可以产生近乎即时的响应或延长的逐步思考,用户可以清晰地看到这些过程。Sonnet 特别擅长编程、数据科学、视觉处理、代理任务。"
},
"claude-3-7-sonnet-latest": {
"description": "Claude 3.7 Sonnet 是 Anthropic 最新的用于处理高度复杂任务的最强大模型。它在性能、智能、流畅性和理解力方面表现卓越。"
},
"claude-3-haiku-20240307": {
"description": "Claude 3 Haiku 是 Anthropic 的最快且最紧凑的模型,旨在实现近乎即时的响应。它具有快速且准确的定向性能。"
},
"claude-3-opus-20240229": {
"description": "Claude 3 Opus 是 Anthropic 用于处理高度复杂任务的最强大模型。它在性能、智能、流畅性和理解力方面表现卓越。"
},
"claude-3-sonnet-20240229": {
"description": "Claude 3 Sonnet 在智能和速度方面为企业工作负载提供了理想的平衡。它以更低的价格提供最大效用,可靠且适合大规模部署。"
},
"claude-haiku-4-5-20251001": {
"description": "Claude Haiku 4.5 是 Anthropic 最快且最智能的 Haiku 模型,具有闪电般的速度和扩展思考能力。"
},
"claude-opus-4-1-20250805": {
"description": "Claude Opus 4.1 是 Anthropic 最新的用于处理高度复杂任务的最强大模型。它在性能、智能、流畅性和理解力方面表现卓越。"
},
"claude-opus-4-1-20250805-thinking": {
"description": "Claude Opus 4.1 思考模型,可以展示其推理过程的高级版本。"
},
"claude-opus-4-20250514": {
"description": "Claude Opus 4 是 Anthropic 用于处理高度复杂任务的最强大模型。它在性能、智能、流畅性和理解力方面表现卓越。"
},
"claude-sonnet-4-20250514": {
"description": "Claude Sonnet 4 可以产生近乎即时的响应或延长的逐步思考,用户可以清晰地看到这些过程。"
},
"claude-sonnet-4-20250514-thinking": {
"description": "Claude Sonnet 4 思考模型可以产生近乎即时的响应或延长的逐步思考,用户可以清晰地看到这些过程。"
},
"claude-sonnet-4-5-20250929": {
"description": "Claude Sonnet 4.5 是 Anthropic 迄今为止最智能的模型。"
},
"codegeex-4": {
"description": "CodeGeeX-4 是强大的AI编程助手,支持多种编程语言的智能问答与代码补全,提升开发效率。"
},
"codegeex4-all-9b": {
"description": "CodeGeeX4-ALL-9B 是一个多语言代码生成模型,支持包括代码补全和生成、代码解释器、网络搜索、函数调用、仓库级代码问答在内的全面功能,覆盖软件开发的各种场景。是参数少于 10B 的顶尖代码生成模型。"
},
"codegemma": {
"description": "CodeGemma 专用于不同编程任务的轻量级语言模型,支持快速迭代和集成。"
},
"codegemma:2b": {
"description": "CodeGemma 专用于不同编程任务的轻量级语言模型,支持快速迭代和集成。"
},
"codellama": {
"description": "Code Llama 是一款专注于代码生成和讨论的 LLM,结合广泛的编程语言支持,适用于开发者环境。"
},
"codellama/CodeLlama-34b-Instruct-hf": {
"description": "Code Llama 是一款专注于代码生成和讨论的 LLM,结合广泛的编程语言支持,适用于开发者环境。"
},
"codellama:13b": {
"description": "Code Llama 是一款专注于代码生成和讨论的 LLM,结合广泛的编程语言支持,适用于开发者环境。"
},
"codellama:34b": {
"description": "Code Llama 是一款专注于代码生成和讨论的 LLM,结合广泛的编程语言支持,适用于开发者环境。"
},
"codellama:70b": {
"description": "Code Llama 是一款专注于代码生成和讨论的 LLM,结合广泛的编程语言支持,适用于开发者环境。"
},
"codeqwen": {
"description": "CodeQwen1.5 是基于大量代码数据训练的大型语言模型,专为解决复杂编程任务。"
},
"codestral": {
"description": "Codestral 是 Mistral AI 的首款代码模型,为代码生成任务提供优异支持。"
},
"codestral-latest": {
"description": "Codestral 是我们最先进的编码语言模型,第二个版本于2025年1月发布,专门从事低延迟、高频任务如中间填充(RST)、代码纠正和测试生成。"
},
"codex-mini-latest": {
"description": "codex-mini-latest 是 o4-mini 的微调版本,专门用于 Codex CLI。对于直接通过 API 使用,我们推荐从 gpt-4.1 开始。"
},
"cogview-4": {
"description": "CogView-4 是智谱首个支持生成汉字的开源文生图模型,在语义理解、图像生成质量、中英文字生成能力等方面全面提升,支持任意长度的中英双语输入,能够生成在给定范围内的任意分辨率图像。"
},
"cohere-command-r": {
"description": "Command R是一个可扩展的生成模型,旨在针对RAG和工具使用,使企业能够实现生产级AI。"
},
"cohere-command-r-plus": {
"description": "Command R+是一个最先进的RAG优化模型,旨在应对企业级工作负载。"
},
"cohere/Cohere-command-r": {
"description": "Command R是一个可扩展的生成模型,旨在针对RAG和工具使用,使企业能够实现生产级AI。"
},
"cohere/Cohere-command-r-plus": {
"description": "Command R+是一个最先进的RAG优化模型,旨在应对企业级工作负载。"
},
"cohere/command-a": {
"description": "Command A 是 Cohere 迄今为止性能最强的模型,在工具使用、代理、检索增强生成 (RAG) 和多语言用例方面表现出色。Command A 的上下文长度为 256K,仅需两个 GPU 即可运行,与 Command R+ 08-2024 相比吞吐量提高了 150%。"
},
"cohere/command-r": {
"description": "Command R 是一个针对对话交互和长上下文任务优化的大型语言模型。它定位于\"可扩展\"类别的模型,在高性能和强准确性之间取得平衡,使公司能够超越概念验证并进入生产。"
},
"cohere/command-r-plus": {
"description": "Command R+ 是 Cohere 最新的大型语言模型,针对对话交互和长上下文任务进行了优化。它的目标是在性能上极其出色,使公司能够超越概念验证并进入生产。"
},
"cohere/embed-v4.0": {
"description": "一个允许对文本、图像或混合内容进行分类或转换为嵌入的模型。"
},
"comfyui/flux-dev": {
"description": "FLUX.1 Dev - 高质量文生图模型,10-50步生成,适合高质量创作和艺术作品生成"
},
"comfyui/flux-kontext-dev": {
"description": "FLUX.1 Kontext-dev - 图像编辑模型,支持基于文本指令修改现有图像,支持局部修改和风格迁移"
},
"comfyui/flux-krea-dev": {
"description": "FLUX.1 Krea-dev - 增强安全的文生图模型,与 Krea 合作开发,内置安全过滤"
},
"comfyui/flux-schnell": {
"description": "FLUX.1 Schnell - 超快速文生图模型,1-4步即可生成高质量图像,适合实时应用和快速原型制作"
},
"comfyui/stable-diffusion-15": {
"description": "Stable Diffusion 1.5 文生图模型,经典的512x512分辨率文本到图像生成,适合快速原型和创意实验"
},
"comfyui/stable-diffusion-35": {
"description": "Stable Diffusion 3.5 新一代文生图模型,支持 Large 和 Medium 两个版本,需要外部 CLIP 编码器文件,提供卓越的图像质量和提示词匹配度。"
},
"comfyui/stable-diffusion-35-inclclip": {
"description": "Stable Diffusion 3.5 内置 CLIP/T5 编码器版本,无需外部编码器文件,适用于 sd3.5_medium_incl_clips 等模型,资源占用更少。"
},
"comfyui/stable-diffusion-custom": {
"description": "自定义 SD 文生图模型,模型文件名请使用 custom_sd_lobe.safetensors,如有 VAE 请使用 custom_sd_vae_lobe.safetensors,模型文件需要按照 Comfy 的要求放入对应文件夹"
},
"comfyui/stable-diffusion-custom-refiner": {
"description": "自定义 SDXL 图生图模型,模型文件名请使用 custom_sd_lobe.safetensors,如有 VAE 请使用 custom_sd_vae_lobe.safetensors,模型文件需要按照 Comfy 的要求放入对应文件夹"
},
"comfyui/stable-diffusion-refiner": {
"description": "SDXL 图生图模型,基于输入图像进行高质量的图像到图像转换,支持风格迁移、图像修复和创意变换。"
},
"comfyui/stable-diffusion-xl": {
"description": "SDXL 文生图模型,支持1024x1024高分辨率文本到图像生成,提供更好的图像质量和细节表现"
},
"command": {
"description": "一个遵循指令的对话模型,在语言任务中表现出高质量、更可靠,并且相比我们的基础生成模型具有更长的上下文长度。"
},
"command-a-03-2025": {
"description": "Command A 是我们迄今为止性能最强的模型,在工具使用、代理、检索增强生成(RAG)和多语言应用场景方面表现出色。Command A 具有 256K 的上下文长度,仅需两块 GPU 即可运行,并且相比于 Command R+ 08-2024,吞吐量提高了 150%。"
},
"command-light": {
"description": "一个更小、更快的 Command 版本,几乎同样强大,但速度更快。"
},
"command-light-nightly": {
"description": "为了缩短主要版本发布之间的时间间隔,我们推出了 Command 模型的每夜版本。对于 command-light 系列,这一版本称为 command-light-nightly。请注意,command-light-nightly 是最新、最具实验性且(可能)不稳定的版本。每夜版本会定期更新,且不会提前通知,因此不建议在生产环境中使用。"
},
"command-nightly": {
"description": "为了缩短主要版本发布之间的时间间隔,我们推出了 Command 模型的每夜版本。对于 Command 系列,这一版本称为 command-cightly。请注意,command-nightly 是最新、最具实验性且(可能)不稳定的版本。每夜版本会定期更新,且不会提前通知,因此不建议在生产环境中使用。"
},
"command-r": {
"description": "Command R 是优化用于对话和长上下文任务的LLM,特别适合动态交互与知识管理。"
},
"command-r-03-2024": {
"description": "Command R 是一个遵循指令的对话模型,在语言任务方面表现出更高的质量、更可靠,并且相比以往模型具有更长的上下文长度。它可用于复杂的工作流程,如代码生成、检索增强生成(RAG)、工具使用和代理。"
},
"command-r-08-2024": {
"description": "command-r-08-2024 是 Command R 模型的更新版本,于 2024 年 8 月发布。"
},