@lobehub/chat
Version:
Lobe Chat - an open-source, high-performance chatbot framework that supports speech synthesis, multimodal, and extensible Function Call plugin system. Supports one-click free deployment of your private ChatGPT/LLM web application.
92 lines (88 loc) • 3.57 kB
text/typescript
import { AIChatModelCard } from '@/types/aiModel';
const vllmChatModels: AIChatModelCard[] = [
{
abilities: {
functionCall: true,
},
contextWindowTokens: 128_000,
description:
'Llama 3.1 是 Meta 推出的领先模型,支持高达 405B 参数,可应用于复杂对话、多语言翻译和数据分析领域。',
displayName: 'Llama 3.1 70B',
enabled: true,
id: 'meta-llama/Meta-Llama-3.1-70B',
type: 'chat',
},
{
abilities: {
functionCall: true,
},
contextWindowTokens: 128_000,
description:
'Llama 3.1 是 Meta 推出的领先模型,支持高达 405B 参数,可应用于复杂对话、多语言翻译和数据分析领域。',
displayName: 'Llama 3.1 405B Instruct',
id: 'meta-llama/Meta-Llama-3.1-405B-Instruct',
type: 'chat',
},
{
contextWindowTokens: 8192,
description: 'Gemma 2 是 Google 推出的高效模型,涵盖从小型应用到复杂数据处理的多种应用场景。',
displayName: 'Gemma 2 9B',
id: 'google/gemma-2-9b',
type: 'chat',
},
{
contextWindowTokens: 8192,
description: 'Gemma 2 是 Google 推出的高效模型,涵盖从小型应用到复杂数据处理的多种应用场景。',
displayName: 'Gemma 2 27B',
id: 'google/gemma-2-27b',
type: 'chat',
},
{
contextWindowTokens: 8192,
description: 'Mistral (7B) Instruct 以高性能著称,适用于多种语言任务。',
displayName: 'Mistral 7B Instruct v0.1',
id: 'mistralai/Mistral-7B-Instruct-v0.1',
type: 'chat',
},
{
contextWindowTokens: 32_768,
description: 'Mixtral-8x7B Instruct (46.7B) 提供高容量的计算框架,适合大规模数据处理。',
displayName: 'Mistral 8x7B Instruct v0.1',
id: 'mistralai/Mixtral-8x7B-Instruct-v0.1',
type: 'chat',
},
{
abilities: {
functionCall: true,
},
contextWindowTokens: 65_536,
description:
'DeepSeek-V3 是一款拥有 6710 亿参数的混合专家(MoE)语言模型,采用多头潜在注意力(MLA)和 DeepSeekMoE 架构,结合无辅助损失的负载平衡策略,优化推理和训练效率。通过在 14.8 万亿高质量tokens上预训练,并进行监督微调和强化学习,DeepSeek-V3 在性能上超越其他开源模型,接近领先闭源模型。',
displayName: 'DeepSeek V3',
enabled: true,
id: 'deepseek-ai/DeepSeek-V3',
type: 'chat',
},
{
abilities: {
reasoning: true,
},
contextWindowTokens: 32_768,
description: 'Qwen QwQ 是由 Qwen 团队开发的实验研究模型,专注于提升AI推理能力。',
displayName: 'QwQ 32B Preview',
enabled: true,
id: 'Qwen/QwQ-32B-Preview',
type: 'chat',
},
{
contextWindowTokens: 32_768,
description:
'Qwen2-7B-Instruct 是 Qwen2 系列中的指令微调大语言模型,参数规模为 7B。该模型基于 Transformer 架构,采用了 SwiGLU 激活函数、注意力 QKV 偏置和组查询注意力等技术。它能够处理大规模输入。该模型在语言理解、生成、多语言能力、编码、数学和推理等多个基准测试中表现出色,超越了大多数开源模型,并在某些任务上展现出与专有模型相当的竞争力。Qwen2-7B-Instruct 在多项评测中均优于 Qwen1.5-7B-Chat,显示出显著的性能提升',
displayName: 'Qwen2 7B Instruct',
enabled: true,
id: 'Qwen/Qwen2-7B-Instruct',
type: 'chat',
},
];
export const allModels = [...vllmChatModels];
export default allModels;