@lobehub/chat
Version:
Lobe Chat - an open-source, high-performance chatbot framework that supports speech synthesis, multimodal, and extensible Function Call plugin system. Supports one-click free deployment of your private ChatGPT/LLM web application.
274 lines (271 loc) • 9.79 kB
text/typescript
import { ModelProviderCard } from '@/types/llm';
// ref: https://github.com/marketplace/models
const Github: ModelProviderCard = {
chatModels: [
{
contextWindowTokens: 200_000,
description:
'专注于高级推理和解决复杂问题,包括数学和科学任务。非常适合需要深入上下文理解和代理工作流程的应用程序。',
displayName: 'OpenAI o1',
enabled: true,
functionCall: false,
id: 'o1',
maxOutput: 100_000,
vision: true,
},
{
contextWindowTokens: 128_000,
description: '比 o1-preview 更小、更快,成本低80%,在代码生成和小上下文操作方面表现良好。',
displayName: 'OpenAI o1-mini',
enabled: true,
functionCall: false,
id: 'o1-mini',
maxOutput: 65_536,
vision: true,
},
{
contextWindowTokens: 128_000,
description:
'专注于高级推理和解决复杂问题,包括数学和科学任务。非常适合需要深度上下文理解和自主工作流程的应用。',
displayName: 'OpenAI o1-preview',
enabled: true,
functionCall: false,
id: 'o1-preview',
maxOutput: 32_768,
vision: true,
},
{
contextWindowTokens: 134_144,
description: '一种经济高效的AI解决方案,适用于多种文本和图像任务。',
displayName: 'OpenAI GPT-4o mini',
enabled: true,
functionCall: true,
id: 'gpt-4o-mini',
maxOutput: 4096,
vision: true,
},
{
contextWindowTokens: 134_144,
description: 'OpenAI GPT-4系列中最先进的多模态模型,可以处理文本和图像输入。',
displayName: 'OpenAI GPT-4o',
enabled: true,
functionCall: true,
id: 'gpt-4o',
maxOutput: 16_384,
vision: true,
},
{
contextWindowTokens: 128_000,
displayName: 'DeepSeek R1',
id: 'DeepSeek-R1',
maxOutput: 4096,
},
{
contextWindowTokens: 262_144,
description:
'一个52B参数(12B活跃)的多语言模型,提供256K长上下文窗口、函数调用、结构化输出和基于事实的生成。',
displayName: 'AI21 Jamba 1.5 Mini',
functionCall: true,
id: 'ai21-jamba-1.5-mini',
maxOutput: 4096,
},
{
contextWindowTokens: 262_144,
description:
'一个398B参数(94B活跃)的多语言模型,提供256K长上下文窗口、函数调用、结构化输出和基于事实的生成。',
displayName: 'AI21 Jamba 1.5 Large',
functionCall: true,
id: 'ai21-jamba-1.5-large',
maxOutput: 4096,
},
{
contextWindowTokens: 131_072,
description:
'Command R是一个可扩展的生成模型,旨在针对RAG和工具使用,使企业能够实现生产级AI。',
displayName: 'Cohere Command R',
id: 'cohere-command-r',
maxOutput: 4096,
},
{
contextWindowTokens: 131_072,
description: 'Command R+是一个最先进的RAG优化模型,旨在应对企业级工作负载。',
displayName: 'Cohere Command R+',
id: 'cohere-command-r-plus',
maxOutput: 4096,
},
{
contextWindowTokens: 131_072,
description:
'Mistral Nemo是一种尖端的语言模型(LLM),在其尺寸类别中拥有最先进的推理、世界知识和编码能力。',
displayName: 'Mistral Nemo',
id: 'mistral-nemo',
maxOutput: 4096,
},
{
contextWindowTokens: 131_072,
description: 'Mistral Small可用于任何需要高效率和低延迟的基于语言的任务。',
displayName: 'Mistral Small',
id: 'mistral-small',
maxOutput: 4096,
},
{
contextWindowTokens: 131_072,
description:
'Mistral的旗舰模型,适合需要大规模推理能力或高度专业化的复杂任务(合成文本生成、代码生成、RAG或代理)。',
displayName: 'Mistral Large',
id: 'mistral-large',
maxOutput: 4096,
},
{
contextWindowTokens: 262_144,
displayName: 'Codestral',
id: 'Codestral-2501',
maxOutput: 4096,
},
{
contextWindowTokens: 131_072,
description: '在高分辨率图像上表现出色的图像推理能力,适用于视觉理解应用。',
displayName: 'Llama 3.2 11B Vision',
id: 'llama-3.2-11b-vision-instruct',
maxOutput: 4096,
vision: true,
},
{
contextWindowTokens: 131_072,
description: '适用于视觉理解代理应用的高级图像推理能力。',
displayName: 'Llama 3.2 90B Vision',
id: 'llama-3.2-90b-vision-instruct',
maxOutput: 4096,
vision: true,
},
{
contextWindowTokens: 32_768,
description:
'Llama 3.3 是 Llama 系列最先进的多语言开源大型语言模型,以极低成本体验媲美 405B 模型的性能。基于 Transformer 结构,并通过监督微调(SFT)和人类反馈强化学习(RLHF)提升有用性和安全性。其指令调优版本专为多语言对话优化,在多项行业基准上表现优于众多开源和封闭聊天模型。知识截止日期为 2023 年 12 月',
displayName: 'Llama 3.3 70B Instruct',
enabled: true,
functionCall: true,
id: 'llama-3.3-70b-instruct',
},
{
contextWindowTokens: 131_072,
description:
'Llama 3.1指令调优的文本模型,针对多语言对话用例进行了优化,在许多可用的开源和封闭聊天模型中,在常见行业基准上表现优异。',
displayName: 'Meta Llama 3.1 8B',
id: 'meta-llama-3.1-8b-instruct',
maxOutput: 4096,
},
{
contextWindowTokens: 131_072,
description:
'Llama 3.1指令调优的文本模型,针对多语言对话用例进行了优化,在许多可用的开源和封闭聊天模型中,在常见行业基准上表现优异。',
displayName: 'Meta Llama 3.1 70B',
id: 'meta-llama-3.1-70b-instruct',
maxOutput: 4096,
},
{
contextWindowTokens: 131_072,
description:
'Llama 3.1指令调优的文本模型,针对多语言对话用例进行了优化,在许多可用的开源和封闭聊天模型中,在常见行业基准上表现优异。',
displayName: 'Meta Llama 3.1 405B',
id: 'meta-llama-3.1-405b-instruct',
maxOutput: 4096,
},
{
contextWindowTokens: 8192,
description: '一个多功能的80亿参数模型,针对对话和文本生成任务进行了优化。',
displayName: 'Meta Llama 3 8B',
id: 'meta-llama-3-8b-instruct',
maxOutput: 4096,
},
{
contextWindowTokens: 8192,
description: '一个强大的700亿参数模型,在推理、编码和广泛的语言应用方面表现出色。',
displayName: 'Meta Llama 3 70B',
id: 'meta-llama-3-70b-instruct',
maxOutput: 4096,
},
{
contextWindowTokens: 16_384,
displayName: 'Phi 4',
id: 'Phi-4',
maxOutput: 16_384,
},
{
contextWindowTokens: 131_072,
displayName: 'Phi 3.5 MoE',
id: 'Phi-3.5-MoE-instruct',
maxOutput: 4096,
},
{
contextWindowTokens: 131_072,
description: 'Phi-3-mini模型的更新版。',
displayName: 'Phi-3.5-mini 128K',
id: 'Phi-3.5-mini-instruct',
maxOutput: 4096,
},
{
contextWindowTokens: 131_072,
description: 'Phi-3-vision模型的更新版。',
displayName: 'Phi-3.5-vision 128K',
id: 'Phi-3.5-vision-instrust',
maxOutput: 4096,
vision: true,
},
{
contextWindowTokens: 4096,
description: 'Phi-3家族中最小的成员,针对质量和低延迟进行了优化。',
displayName: 'Phi-3-mini 4K',
id: 'Phi-3-mini-4k-instruct',
maxOutput: 4096,
},
{
contextWindowTokens: 131_072,
description: '相同的Phi-3-mini模型,但具有更大的上下文大小,适用于RAG或少量提示。',
displayName: 'Phi-3-mini 128K',
id: 'Phi-3-mini-128k-instruct',
maxOutput: 4096,
},
{
contextWindowTokens: 8192,
description: '一个70亿参数模型,质量优于Phi-3-mini,重点关注高质量、推理密集型数据。',
displayName: 'Phi-3-small 8K',
id: 'Phi-3-small-8k-instruct',
maxOutput: 4096,
},
{
contextWindowTokens: 131_072,
description: '相同的Phi-3-small模型,但具有更大的上下文大小,适用于RAG或少量提示。',
displayName: 'Phi-3-small 128K',
id: 'Phi-3-small-128k-instruct',
maxOutput: 4096,
},
{
contextWindowTokens: 4096,
description: '一个140亿参数模型,质量优于Phi-3-mini,重点关注高质量、推理密集型数据。',
displayName: 'Phi-3-medium 4K',
id: 'Phi-3-medium-4k-instruct',
maxOutput: 4096,
},
{
contextWindowTokens: 131_072,
description: '相同的Phi-3-medium模型,但具有更大的上下文大小,适用于RAG或少量提示。',
displayName: 'Phi-3-medium 128K',
id: 'Phi-3-medium-128k-instruct',
maxOutput: 4096,
},
],
checkModel: 'Phi-3-mini-4k-instruct',
// Ref: https://github.blog/news-insights/product-news/introducing-github-models/
description: '通过GitHub模型,开发人员可以成为AI工程师,并使用行业领先的AI模型进行构建。',
id: 'github',
modelList: { showModelFetcher: true },
// I'm not sure if it is good to show the model fetcher, as remote list is not complete.
name: 'GitHub',
settings: {
sdkType: 'azure',
showModelFetcher: true,
},
url: 'https://github.com/marketplace/models',
};
export default Github;