UNPKG

@lobehub/chat

Version:

Lobe Chat - an open-source, high-performance chatbot framework that supports speech synthesis, multimodal, and extensible Function Call plugin system. Supports one-click free deployment of your private ChatGPT/LLM web application.

286 lines (283 loc) 13.1 kB
import { ModelProviderCard } from '@/types/llm'; // ref: https://fireworks.ai/models?show=Serverless // ref: https://fireworks.ai/pricing const FireworksAI: ModelProviderCard = { chatModels: [ { contextWindowTokens: 131_072, description: 'Llama 3.3 70B Instruct 是 Llama 3.1 70B 的 12 月更新版本。该模型在 Llama 3.1 70B(于 2024 年 7 月发布)的基础上进行了改进,增强了工具调用、多语言文本支持、数学和编程能力。该模型在推理、数学和指令遵循方面达到了行业领先水平,并且能够提供与 3.1 405B 相似的性能,同时在速度和成本上具有显著优势。', displayName: 'Llama 3.3 70B Instruct', enabled: true, id: 'accounts/fireworks/models/llama-v3p3-70b-instruct', pricing: { input: 0.9, output: 0.9, }, }, { contextWindowTokens: 131_072, description: 'Llama 3.2 3B Instruct 是 Meta 推出的轻量级多语言模型。该模型专为高效运行而设计,相较于更大型的模型,具有显著的延迟和成本优势。其典型应用场景包括查询和提示重写,以及写作辅助。', displayName: 'Llama 3.2 3B Instruct', enabled: true, id: 'accounts/fireworks/models/llama-v3p2-3b-instruct', pricing: { input: 0.1, output: 0.1, }, }, { contextWindowTokens: 131_072, description: 'Meta 推出的指令微调图像推理模型,拥有 110 亿参数。该模型针对视觉识别、图像推理、图片字幕生成以及图片相关的常规问答进行了优化。它能够理解视觉数据,如图表和图形,并通过生成文本描述图像细节,弥合视觉与语言之间的鸿沟。', displayName: 'Llama 3.2 11B Vision Instruct', enabled: true, id: 'accounts/fireworks/models/llama-v3p2-11b-vision-instruct', pricing: { input: 0.2, output: 0.2, }, vision: true, }, { contextWindowTokens: 131_072, description: 'Meta 推出的指令微调图像推理模型,拥有 900 亿参数。该模型针对视觉识别、图像推理、图片字幕生成以及图片相关的常规问答进行了优化。它能够理解视觉数据,如图表和图形,并通过生成文本描述图像细节,弥合视觉与语言之间的鸿沟。注意:该模型目前作为无服务器模型进行实验性提供。如果用于生产环境,请注意 Fireworks 可能会在短时间内取消部署该模型。', displayName: 'Llama 3.2 90B Vision Instruct', enabled: true, id: 'accounts/fireworks/models/llama-v3p2-90b-vision-instruct', pricing: { input: 0.9, output: 0.9, }, vision: true, }, { contextWindowTokens: 131_072, description: 'Meta Llama 3.1 系列是多语言大语言模型(LLM)集合,包含 8B、70B 和 405B 三种参数规模的预训练和指令微调生成模型。Llama 3.1 指令微调文本模型(8B、70B、405B)专为多语言对话应用优化,并在常见的行业基准测试中优于许多现有的开源和闭源聊天模型。', displayName: 'Llama 3.1 8B Instruct', id: 'accounts/fireworks/models/llama-v3p1-8b-instruct', pricing: { input: 0.2, output: 0.2, }, }, { contextWindowTokens: 131_072, description: 'Meta Llama 3.1 系列是多语言大语言模型(LLM)集合,包含 8B、70B 和 405B 三种参数规模的预训练和指令微调生成模型。Llama 3.1 指令微调文本模型(8B、70B、405B)专为多语言对话应用优化,并在常见的行业基准测试中优于许多现有的开源和闭源聊天模型。', displayName: 'Llama 3.1 70B Instruct', functionCall: true, id: 'accounts/fireworks/models/llama-v3p1-70b-instruct', pricing: { input: 0.9, output: 0.9, }, }, { contextWindowTokens: 131_072, description: 'Meta Llama 3.1 系列是多语言大语言模型(LLM)集合,包含 8B、70B 和 405B 参数规模的预训练和指令微调生成模型。Llama 3.1 指令微调文本模型(8B、70B、405B)专为多语言对话场景优化,在常见的行业基准测试中优于许多现有的开源和闭源聊天模型。405B 是 Llama 3.1 家族中能力最强的模型。该模型采用 FP8 进行推理,与参考实现高度匹配。', displayName: 'Llama 3.1 405B Instruct', functionCall: true, id: 'accounts/fireworks/models/llama-v3p1-405b-instruct', pricing: { input: 3, output: 3, }, }, { contextWindowTokens: 8192, description: 'Meta 开发并发布了 Meta Llama 3 系列大语言模型(LLM),这是一个包含 8B 和 70B 参数规模的预训练和指令微调生成文本模型的集合。Llama 3 指令微调模型专为对话应用场景优化,并在常见的行业基准测试中优于许多现有的开源聊天模型。', displayName: 'Llama 3 8B Instruct', id: 'accounts/fireworks/models/llama-v3-8b-instruct', pricing: { input: 0.2, output: 0.2, }, }, { contextWindowTokens: 8192, description: 'Meta 开发并发布了 Meta Llama 3 系列大语言模型(LLM),该系列包含 8B 和 70B 参数规模的预训练和指令微调生成文本模型。Llama 3 指令微调模型专为对话应用场景优化,并在常见的行业基准测试中优于许多现有的开源聊天模型。', displayName: 'Llama 3 70B Instruct', id: 'accounts/fireworks/models/llama-v3-70b-instruct', pricing: { input: 0.9, output: 0.9, }, }, { contextWindowTokens: 8192, description: 'Meta Llama 3 指令微调模型专为对话应用场景优化,并在常见的行业基准测试中优于许多现有的开源聊天模型。Llama 3 8B Instruct(HF 版本)是 Llama 3 8B Instruct 的原始 FP16 版本,其结果应与官方 Hugging Face 实现一致。', displayName: 'Llama 3 8B Instruct (HF version)', id: 'accounts/fireworks/models/llama-v3-8b-instruct-hf', pricing: { input: 0.2, output: 0.2, }, }, { contextWindowTokens: 32_768, description: '24B 参数模型,具备与更大型模型相当的最先进能力。', displayName: 'Mistral Small 3 Instruct', enabled: true, id: 'accounts/fireworks/models/mistral-small-24b-instruct-2501', pricing: { input: 0.9, output: 0.9, }, }, { contextWindowTokens: 32_768, description: 'Mixtral MoE 8x7B Instruct 是 Mixtral MoE 8x7B 的指令微调版本,已启用聊天完成功能 API。', displayName: 'Mixtral MoE 8x7B Instruct', id: 'accounts/fireworks/models/mixtral-8x7b-instruct', pricing: { input: 0.5, output: 0.5, }, }, { contextWindowTokens: 65_536, description: 'Mixtral MoE 8x22B Instruct v0.1 是 Mixtral MoE 8x22B v0.1 的指令微调版本,已启用聊天完成功能 API。', displayName: 'Mixtral MoE 8x22B Instruct', functionCall: true, id: 'accounts/fireworks/models/mixtral-8x22b-instruct', pricing: { input: 1.2, output: 1.2, }, }, { contextWindowTokens: 32_064, description: 'Phi-3-Vision-128K-Instruct 是一个轻量级的、最先进的开放多模态模型,基于包括合成数据和筛选后的公开网站数据集构建,重点关注文本和视觉方面的高质量、推理密集型数据。该模型属于 Phi-3 模型家族,其多模态版本支持 128K 上下文长度(以标记为单位)。该模型经过严格的增强过程,包括监督微调和直接偏好优化,以确保精确的指令遵循和强大的安全措施。', displayName: 'Phi 3.5 Vision Instruct', enabled: true, id: 'accounts/fireworks/models/phi-3-vision-128k-instruct', pricing: { input: 0.2, output: 0.2, }, vision: true, }, { contextWindowTokens: 32_768, description: 'MythoMix 的改进版,可能是其更为完善的变体,是 MythoLogic-L2 和 Huginn 的合并,采用了高度实验性的张量类型合并技术。由于其独特的性质,该模型在讲故事和角色扮演方面表现出色。', displayName: 'MythoMax L2 13b', id: 'accounts/fireworks/models/mythomax-l2-13b', pricing: { input: 0.2, output: 0.2, }, }, { contextWindowTokens: 131_072, description: 'Deepseek 提供的强大 Mixture-of-Experts (MoE) 语言模型,总参数量为 671B,每个标记激活 37B 参数。', displayName: 'Deepseek V3', enabled: true, id: 'accounts/fireworks/models/deepseek-v3', pricing: { input: 0.9, output: 0.9, }, }, { contextWindowTokens: 163_840, description: 'DeepSeek-R1 是一款最先进的大型语言模型,经过强化学习和冷启动数据的优化,具有出色的推理、数学和编程性能。', displayName: 'Deepseek R1', enabled: true, id: 'accounts/fireworks/models/deepseek-r1', pricing: { input: 8, output: 8, }, }, { contextWindowTokens: 32_768, description: 'Qwen QwQ 模型专注于推动 AI 推理,并展示了开放模型在推理能力上与闭源前沿模型匹敌的力量。QwQ-32B-Preview 是一个实验性发布版本,在 GPQA、AIME、MATH-500 和 LiveCodeBench 基准测试中,在分析和推理能力上可与 o1 相媲美,并超越 GPT-4o 和 Claude 3.5 Sonnet。注意:该模型目前作为无服务器模型进行实验性提供。如果用于生产环境,请注意 Fireworks 可能会在短时间内取消部署该模型。', displayName: 'Qwen Qwq 32b Preview', enabled: true, id: 'accounts/fireworks/models/qwen-qwq-32b-preview', pricing: { input: 0.9, output: 0.9, }, }, { contextWindowTokens: 32_768, description: 'Qwen2.5 是由 Qwen 团队和阿里云开发的一系列仅解码语言模型,提供 0.5B、1.5B、3B、7B、14B、32B 和 72B 不同参数规模,并包含基础版和指令微调版。', displayName: 'Qwen2.5 72B Instruct', enabled: true, id: 'accounts/fireworks/models/qwen2p5-72b-instruct', pricing: { input: 0.9, output: 0.9, }, }, { contextWindowTokens: 32_768, description: 'Qwen-VL 模型的 72B 版本是阿里巴巴最新迭代的成果,代表了近一年的创新。', displayName: 'Qwen2 VL 72B Instruct', enabled: true, id: 'accounts/fireworks/models/qwen2-vl-72b-instruct', pricing: { input: 0.9, output: 0.9, }, vision: true, }, { contextWindowTokens: 32_768, description: 'Qwen2.5-Coder 是最新一代专为代码设计的 Qwen 大型语言模型(前称为 CodeQwen)。注意:该模型目前作为无服务器模型进行实验性提供。如果用于生产环境,请注意 Fireworks 可能会在短时间内取消部署该模型。', displayName: 'Qwen2.5-Coder-32B-Instruct', enabled: true, id: 'accounts/fireworks/models/qwen2p5-coder-32b-instruct', pricing: { input: 0.9, output: 0.9, }, }, { contextWindowTokens: 32_768, description: 'Yi-Large 是顶尖的大型语言模型之一,在 LMSYS 基准测试排行榜上,其表现仅次于 GPT-4、Gemini 1.5 Pro 和 Claude 3 Opus。它在多语言能力方面表现卓越,特别是在西班牙语、中文、日语、德语和法语方面。Yi-Large 还具有用户友好性,采用与 OpenAI 相同的 API 定义,便于集成。', displayName: 'Yi-Large', enabled: true, id: 'accounts/yi-01-ai/models/yi-large', pricing: { input: 3, output: 3, }, }, ], checkModel: 'accounts/fireworks/models/llama-v3p2-3b-instruct', description: 'Fireworks AI 是一家领先的高级语言模型服务商,专注于功能调用和多模态处理。其最新模型 Firefunction V2 基于 Llama-3,优化用于函数调用、对话及指令跟随。视觉语言模型 FireLLaVA-13B 支持图像和文本混合输入。其他 notable 模型包括 Llama 系列和 Mixtral 系列,提供高效的多语言指令跟随与生成支持。', id: 'fireworksai', modelList: { showModelFetcher: true }, modelsUrl: 'https://fireworks.ai/models?show=Serverless', name: 'Fireworks AI', settings: { proxyUrl: { placeholder: 'https://api.fireworks.ai/inference/v1', }, sdkType: 'openai', showModelFetcher: true, }, url: 'https://fireworks.ai', }; export default FireworksAI;