UNPKG

@lobehub/chat

Version:

Lobe Chat - an open-source, high-performance chatbot framework that supports speech synthesis, multimodal, and extensible Function Call plugin system. Supports one-click free deployment of your private ChatGPT/LLM web application.

409 lines (404 loc) 17 kB
import { AIChatModelCard } from '@/types/aiModel'; // https://cloud.infini-ai.com/genstudio/model // All models are currently free // Currently the platform doesn't support Function Call const infiniaiChatModels: AIChatModelCard[] = [ { abilities: { reasoning: true, }, contextWindowTokens: 65_536, description: 'DeepSeek-R1 是一个专注于推理能力的大语言模型,通过创新的训练流程实现了与 OpenAI-o1 相当的数学、代码和推理任务表现。该模型采用了冷启动数据和大规模强化学习相结合的方式进行训练。', displayName: 'DeepSeek R1', enabled: true, id: 'deepseek-r1', pricing: { currency: 'CNY', input: 0, output: 0, }, type: 'chat', }, { contextWindowTokens: 65_536, description: 'DeepSeek-V3-0324 是一个强大的专家混合(MoE)语言模型,总参数量为 671B,每个 Token 激活 37B 参数。该模型采用多头潜在注意力(MLA)和 DeepSeekMoE 架构,实现了高效推理和经济训练,并在前代 DeepSeek-V3 的基础上显著提升了性能。', displayName: 'DeepSeek V3 0324', enabled: true, id: 'deepseek-v3', pricing: { currency: 'CNY', input: 0, output: 0, }, type: 'chat', }, { abilities: { functionCall: true, reasoning: true, }, contextWindowTokens: 128_000, description: 'Qwen3-235B-A22B 是 Qwen 系列第三代的大型语言模型,采用混合专家(MoE)架构,总计 2350 亿参数,每 token 激活 220 亿参数。支持无缝切换思考模式(复杂推理)和非思考模式(通用对话),在数学、编码、常识推理及多语言指令执行中表现出色。', displayName: 'Qwen3 235B A22B', enabled: true, id: 'qwen3-235b-a22b', pricing: { currency: 'CNY', input: 0, output: 0, }, type: 'chat', }, { abilities: { functionCall: true, reasoning: true, }, contextWindowTokens: 128_000, description: 'Qwen3-30B-A3B 是 Qwen 系列第三代的大型语言模型,采用混合专家(MoE)架构,总计 305 亿参数,每 token 激活 33 亿参数。支持无缝切换思维模式(复杂推理)和非思维模式(通用对话),在数学、编码、常识推理及多语言指令执行中表现出色。', displayName: 'Qwen3 30B A3B', enabled: true, id: 'qwen3-30b-a3b', pricing: { currency: 'CNY', input: 0, output: 0, }, type: 'chat', }, { abilities: { functionCall: true, reasoning: true, }, contextWindowTokens: 128_000, description: 'Qwen3-32B 是 Qwen 系列第三代的大型语言模型,拥有 328 亿参数,专为高效推理和多语言任务设计。支持无缝切换思考模式(复杂推理)和非思考模式(通用对话),在数学、编码、常识推理及多语言指令执行中表现出色。', displayName: 'Qwen3 32B', enabled: true, id: 'qwen3-32b', pricing: { currency: 'CNY', input: 0, output: 0, }, type: 'chat', }, { abilities: { functionCall: true, reasoning: true, }, contextWindowTokens: 128_000, description: 'Qwen3-14B 是 Qwen 系列第三代的大型语言模型,拥有 148 亿参数,专为高效推理和多语言任务设计。支持无缝切换思维模式(复杂推理)和非思维模式(通用对话),在数学、编码、常识推理及多语言指令执行中表现出色。', displayName: 'Qwen3 14B', enabled: false, id: 'qwen3-14b', pricing: { currency: 'CNY', input: 0, output: 0, }, type: 'chat', }, { abilities: { functionCall: true, reasoning: true, }, contextWindowTokens: 128_000, description: 'Qwen3-8B 是 Qwen 系列第三代的大型语言模型,拥有 82 亿参数,专为高效推理和多语言任务设计。支持无缝切换思考模式(复杂推理)和非思考模式(通用对话),在数学、编码、常识推理及多语言指令执行中表现出色。', displayName: 'Qwen3 8B', enabled: false, id: 'qwen3-8b', pricing: { currency: 'CNY', input: 0, output: 0, }, type: 'chat', }, { abilities: { vision: true, }, contextWindowTokens: 125_000, description: 'Qwen2.5-VL 系列模型提升了模型的智能水平、实用性和适用性,使其在自然对话、内容创作、专业知识服务及代码开发等场景中表现更优。旗舰模型 Qwen2.5-VL-72B-Instruct 在涵盖多个领域和任务的基准测试中展现出强大的竞争力,包括大学水平的问题解答、数学、文档理解、通用问答、视频理解以及视觉代理任务等。', displayName: 'Qwen2.5 VL 72B Instruct', enabled: true, id: 'qwen2.5-vl-72b-instruct', pricing: { currency: 'CNY', input: 0, output: 0, }, type: 'chat', }, { abilities: { vision: true, }, contextWindowTokens: 125_000, description: 'Qwen2.5-VL 系列模型提升了模型的智能水平、实用性和适用性,使其在自然对话、内容创作、专业知识服务及代码开发等场景中表现更优。32B 版本使用了强化学习技术优化模型,与 Qwen2.5 VL 系列的其它模型相比,提供了更符合人类偏好的输出风格、复杂数学问题的推理能力,以及图像细粒度理解与推理能力。', displayName: 'Qwen2.5 VL 32B Instruct', enabled: true, id: 'qwen2.5-vl-32b-instruct', pricing: { currency: 'CNY', input: 0, output: 0, }, type: 'chat', }, { abilities: { vision: true, }, contextWindowTokens: 125_000, description: 'Qwen2.5-VL 系列模型提升了模型的智能水平、实用性和适用性,使其在自然对话、内容创作、专业知识服务及代码开发等场景中表现更优。', displayName: 'Qwen2.5 VL 7B Instruct', id: 'qwen2.5-vl-7b-instruct', pricing: { currency: 'CNY', input: 0, output: 0, }, type: 'chat', }, { abilities: { functionCall: true, }, contextWindowTokens: 32_768, description: 'Qwen2.5 是 Qwen 大型语言模型系列的最新成果。Qwen2.5 发布了从 0.5 到 720 亿参数不等的基础语言模型及指令调优语言模型。Qwen2.5 相比 Qwen2 带来了以下改进:\n显著增加知识量,在编程与数学领域的能力得到极大提升。\n在遵循指令、生成长文本、理解结构化数据 (例如,表格) 以及生成结构化输出特别是 JSON 方面有显著提升。对系统提示的多样性更具韧性,增强了聊天机器人中的角色扮演实现和条件设定。\n支持长上下文处理。\n支持超过 29 种语言的多语言功能,包括中文、英语、法语、西班牙语、葡萄牙语、德语、意大利语、俄语、日语、韩语、越南语、泰语、阿拉伯语等。', displayName: 'Qwen2.5 72B Instruct', enabled: true, id: 'qwen2.5-72b-instruct', pricing: { currency: 'CNY', input: 0, output: 0, }, type: 'chat', }, { abilities: { functionCall: true, }, contextWindowTokens: 32_768, description: 'Qwen2.5 是 Qwen 大型语言模型系列的最新成果。Qwen2.5 发布了从 0.5 到 720 亿参数不等的基础语言模型及指令调优语言模型。Qwen2.5 相比 Qwen2 带来了以下改进:\n显著增加知识量,在编程与数学领域的能力得到极大提升。\n在遵循指令、生成长文本、理解结构化数据 (例如,表格) 以及生成结构化输出特别是 JSON 方面有显著提升。对系统提示的多样性更具韧性,增强了聊天机器人中的角色扮演实现和条件设定。\n支持长上下文处理。\n支持超过 29 种语言的多语言功能,包括中文、英语、法语、西班牙语、葡萄牙语、德语、意大利语、俄语、日语、韩语、越南语、泰语、阿拉伯语等。', displayName: 'Qwen2.5 32B Instruct', enabled: true, id: 'qwen2.5-32b-instruct', pricing: { currency: 'CNY', input: 0, output: 0, }, type: 'chat', }, { contextWindowTokens: 32_768, description: 'Qwen2.5-Coder 是最新的代码专用 Qwen 大型语言模型系列。Qwen2.5-Coder 在 CodeQwen1.5 的基础上带来了以下改进:\n显著提升代码生成、代码推理和代码修复能力。\n支持真实世界应用,例如代码代理,增强编码能力和数学及一般能力。\n支持长上下文处理。', displayName: 'Qwen2.5 Coder 32B Instruct', id: 'qwen2.5-coder-32b-instruct', pricing: { currency: 'CNY', input: 0, output: 0, }, type: 'chat', }, { contextWindowTokens: 32_768, description: 'Qwen2.5 是 Qwen 大型语言模型系列的最新成果。Qwen2.5 发布了从 0.5 到 720 亿参数不等的基础语言模型及指令调优语言模型。Qwen2.5 相比 Qwen2 带来了以下改进:\n显著增加知识量,在编程与数学领域的能力得到极大提升。\n在遵循指令、生成长文本、理解结构化数据 (例如,表格) 以及生成结构化输出特别是 JSON 方面有显著提升。对系统提示的多样性更具韧性,增强了聊天机器人中的角色扮演实现和条件设定。\n支持长上下文处理。\n支持超过 29 种语言的多语言功能,包括中文、英语、法语、西班牙语、葡萄牙语、德语、意大利语、俄语、日语、韩语、越南语、泰语、阿拉伯语等。', displayName: 'Qwen2.5 14B Instruct', id: 'qwen2.5-14b-instruct', pricing: { currency: 'CNY', input: 0, output: 0, }, type: 'chat', }, { abilities: { functionCall: true, }, contextWindowTokens: 32_768, description: 'Qwen2.5 是 Qwen 大型语言模型系列的最新成果。Qwen2.5 发布了从 0.5 到 720 亿参数不等的基础语言模型及指令调优语言模型。Qwen2.5 相比 Qwen2 带来了以下改进:\n显著增加知识量,在编程与数学领域的能力得到极大提升。\n在遵循指令、生成长文本、理解结构化数据 (例如,表格) 以及生成结构化输出特别是 JSON 方面有显著提升。对系统提示的多样性更具韧性,增强了聊天机器人中的角色扮演实现和条件设定。\n支持长上下文处理。\n支持超过 29 种语言的多语言功能,包括中文、英语、法语、西班牙语、葡萄牙语、德语、意大利语、俄语、日语、韩语、越南语、泰语、阿拉伯语等。', displayName: 'Qwen2.5 7B Instruct', id: 'qwen2.5-7b-instruct', pricing: { currency: 'CNY', input: 0, output: 0, }, type: 'chat', }, { abilities: { functionCall: true, reasoning: true, }, contextWindowTokens: 65_536, description: 'QwQ 是 Qwen 系列的推理模型,相比传统指令调优模型,QwQ 具备思考和推理能力,在下游任务尤其是难题上能取得显著性能提升。QwQ-32B 是一款中等规模的推理模型,其性能可与最先进的推理模型相媲美,例如 DeepSeek-R1 和 o1-mini。', displayName: 'QwQ 32B', enabled: false, id: 'qwq-32b', pricing: { currency: 'CNY', input: 0, output: 0, }, type: 'chat', }, { contextWindowTokens: 32_768, description: 'DeepSeek-R1-Distill-Qwen-32B 是基于 DeepSeek-R1 蒸馏而来的模型,在 Qwen2.5-32B 的基础上使用 DeepSeek-R1 生成的样本进行微调。该模型在各种基准测试中表现出色,保持了强大的推理能力。', displayName: 'DeepSeek R1 Distill Qwen 32B', enabled: false, id: 'deepseek-r1-distill-qwen-32b', pricing: { currency: 'CNY', input: 0, output: 0, }, type: 'chat', }, { contextWindowTokens: 8192, description: 'Meta 发布的 LLaMA 3.3 多语言大规模语言模型(LLMs)是一个经过预训练和指令微调的生成模型,提供 70B 规模(文本输入/文本输出)。该模型使用超过 15T 的数据进行训练,支持英语、德语、法语、意大利语、葡萄牙语、印地语、西班牙语和泰语,知识更新截止于 2023 年 12 月。', displayName: 'LLaMA 3.3 70B', enabled: false, id: 'llama-3.3-70b-instruct', pricing: { currency: 'CNY', input: 0, output: 0, }, type: 'chat', }, { contextWindowTokens: 32_768, description: 'Qwen2 是 Qwen 团队推出的新一代大型语言模型系列。它基于 Transformer 架构,并采用 SwiGLU 激活函数、注意力 QKV 偏置(attention QKV bias)、群组查询注意力(group query attention)、滑动窗口注意力(mixture of sliding window attention)与全注意力的混合等技术。此外,Qwen 团队还改进了适应多种自然语言和代码的分词器。', displayName: 'Qwen 2 72B Instruct', id: 'qwen2-72b-instruct', pricing: { currency: 'CNY', input: 0, output: 0, }, type: 'chat', }, { contextWindowTokens: 32_768, description: 'Qwen2 是 Qwen 团队推出的新一代大型语言模型系列。它基于 Transformer 架构,并采用 SwiGLU 激活函数、注意力 QKV 偏置(attention QKV bias)、群组查询注意力(group query attention)、滑动窗口注意力(mixture of sliding window attention)与全注意力的混合等技术。此外,Qwen 团队还改进了适应多种自然语言和代码的分词器。', displayName: 'Qwen 2 7B Instruct', id: 'qwen2-7b-instruct', pricing: { currency: 'CNY', input: 0, output: 0, }, type: 'chat', }, { contextWindowTokens: 4096, description: 'Yi-1.5 是 Yi 的升级版本。 它使用 500B Tokens 的高质量语料库在 Yi 上持续进行预训练,并在 3M 个多样化的微调样本上进行微调。', displayName: 'Yi-1.5 34B Chat', id: 'yi-1.5-34b-chat', pricing: { currency: 'CNY', input: 0, output: 0, }, type: 'chat', }, { contextWindowTokens: 16_384, description: 'GLM-4-9B-Chat 是智谱 AI 推出的最新一代预训练模型 GLM-4-9B 的人类偏好对齐版本。', displayName: 'GLM-4 9B Chat', id: 'glm-4-9b-chat', pricing: { currency: 'CNY', input: 0, output: 0, }, type: 'chat', }, { contextWindowTokens: 8192, description: 'ChatGLM3 是智谱 AI 与清华 KEG 实验室发布的闭源模型,经过海量中英标识符的预训练与人类偏好对齐训练,相比一代模型在 MMLU、C-Eval、GSM8K 分别取得了 16%、36%、280% 的提升,并登顶中文任务榜单 C-Eval。适用于对知识量、推理能力、创造力要求较高的场景,比如广告文案、小说写作、知识类写作、代码生成等。', displayName: 'ChatGLM3', id: 'chatglm3', pricing: { currency: 'CNY', input: 0, output: 0, }, type: 'chat', }, { contextWindowTokens: 32_768, description: 'ChatGLM3-6b-base 是由智谱开发的 ChatGLM 系列最新一代的 60 亿参数规模的开源的基础模型。', displayName: 'ChatGLM3 6B Base', id: 'chatglm3-6b-base', pricing: { currency: 'CNY', input: 0, output: 0, }, type: 'chat', }, { contextWindowTokens: 4096, description: 'Llama2 是由 Meta 开发并开源的大型语言模型(LLM)系列,这是一组从 70 亿到 700 亿参数不同规模、经过预训练和微调的生成式文本模型。架构层面,LLama2 是一个使用优化型转换器架构的自动回归语言模型。调整后的版本使用有监督的微调(SFT)和带有人类反馈的强化学习(RLHF)以对齐人类对有用性和安全性的偏好。Llama2 较 Llama 系列在多种学术数据集上有着更加不俗的表现,为大量其他模型提供了设计和开发的思路。', displayName: 'Llama 2 7B Chat', id: 'llama-2-7b-chat', pricing: { currency: 'CNY', input: 0, output: 0, }, type: 'chat', }, { contextWindowTokens: 4096, description: 'Megrez-3B-Instruct 是由无问芯穹完全自主训练的大语言模型。Megrez-3B-Instruct 旨在通过软硬协同理念,打造一款极速推理、小巧精悍、极易上手的端侧智能解决方案。', displayName: 'Megrez 3B Instruct', id: 'megrez-3b-instruct', pricing: { currency: 'CNY', input: 0, output: 0, }, type: 'chat', }, ]; export const allModels = [...infiniaiChatModels]; export default allModels;