@lobehub/chat
Version:
Lobe Chat - an open-source, high-performance chatbot framework that supports speech synthesis, multimodal, and extensible Function Call plugin system. Supports one-click free deployment of your private ChatGPT/LLM web application.
1,092 lines • 194 kB
JSON
{
"01-ai/yi-1.5-34b-chat": {
"description": "零一萬物,最新開源微調模型,340億參數,微調支持多種對話場景,高質量訓練數據,對齊人類偏好。"
},
"01-ai/yi-1.5-9b-chat": {
"description": "零一萬物,最新開源微調模型,90億參數,微調支持多種對話場景,高質量訓練數據,對齊人類偏好。"
},
"360/deepseek-r1": {
"description": "【360部署版】DeepSeek-R1在後訓練階段大規模使用了強化學習技術,在僅有極少標註數據的情況下,極大提升了模型推理能力。在數學、程式碼、自然語言推理等任務上,性能比肩 OpenAI o1 正式版。"
},
"360gpt-pro": {
"description": "360GPT Pro 作為 360 AI 模型系列的重要成員,以高效的文本處理能力滿足多樣化的自然語言應用場景,支持長文本理解和多輪對話等功能。"
},
"360gpt-pro-trans": {
"description": "翻譯專用模型,深度微調優化,翻譯效果領先。"
},
"360gpt-turbo": {
"description": "360GPT Turbo 提供強大的計算和對話能力,具備出色的語義理解和生成效率,是企業和開發者理想的智能助理解決方案。"
},
"360gpt-turbo-responsibility-8k": {
"description": "360GPT Turbo Responsibility 8K 強調語義安全和責任導向,專為對內容安全有高度要求的應用場景設計,確保用戶體驗的準確性與穩健性。"
},
"360gpt2-o1": {
"description": "360gpt2-o1 使用樹搜索構建思維鏈,並引入了反思機制,使用強化學習訓練,模型具備自我反思與糾錯的能力。"
},
"360gpt2-pro": {
"description": "360GPT2 Pro 是 360 公司推出的高級自然語言處理模型,具備卓越的文本生成和理解能力,尤其在生成與創作領域表現出色,能夠處理複雜的語言轉換和角色演繹任務。"
},
"360zhinao2-o1": {
"description": "360zhinao2-o1 使用樹搜索構建思維鏈,並引入了反思機制,使用強化學習訓練,模型具備自我反思與糾錯的能力。"
},
"4.0Ultra": {
"description": "Spark4.0 Ultra 是星火大模型系列中最為強大的版本,在升級聯網搜索鏈路同時,提升對文本內容的理解和總結能力。它是用於提升辦公生產力和準確響應需求的全方位解決方案,是引領行業的智能產品。"
},
"Baichuan2-Turbo": {
"description": "採用搜索增強技術實現大模型與領域知識、全網知識的全面連結。支持PDF、Word等多種文檔上傳及網址輸入,信息獲取及時、全面,輸出結果準確、專業。"
},
"Baichuan3-Turbo": {
"description": "針對企業高頻場景優化,效果大幅提升,高性價比。相對於Baichuan2模型,內容創作提升20%,知識問答提升17%,角色扮演能力提升40%。整體效果比GPT3.5更優。"
},
"Baichuan3-Turbo-128k": {
"description": "具備 128K 超長上下文窗口,針對企業高頻場景優化,效果大幅提升,高性價比。相對於Baichuan2模型,內容創作提升20%,知識問答提升17%,角色扮演能力提升40%。整體效果比GPT3.5更優。"
},
"Baichuan4": {
"description": "模型能力國內第一,在知識百科、長文本、生成創作等中文任務上超越國外主流模型。還具備行業領先的多模態能力,多項權威評測基準表現優異。"
},
"Baichuan4-Air": {
"description": "模型能力國內第一,在知識百科、長文本、生成創作等中文任務上超越國外主流模型。還具備行業領先的多模態能力,多項權威評測基準表現優異。"
},
"Baichuan4-Turbo": {
"description": "模型能力國內第一,在知識百科、長文本、生成創作等中文任務上超越國外主流模型。還具備行業領先的多模態能力,多項權威評測基準表現優異。"
},
"DeepSeek-R1": {
"description": "最先進的高效 LLM,擅長推理、數學和程式設計。"
},
"DeepSeek-R1-Distill-Llama-70B": {
"description": "DeepSeek R1——DeepSeek 套件中更大更智能的模型——被蒸餾到 Llama 70B 架構中。基於基準測試和人工評估,該模型比原始 Llama 70B 更智能,尤其在需要數學和事實精確性的任務上表現出色。"
},
"DeepSeek-R1-Distill-Qwen-1.5B": {
"description": "基於 Qwen2.5-Math-1.5B 的 DeepSeek-R1 蒸餾模型,通過強化學習與冷啟動數據優化推理性能,開源模型刷新多任務標杆。"
},
"DeepSeek-R1-Distill-Qwen-14B": {
"description": "基於 Qwen2.5-14B 的 DeepSeek-R1 蒸餾模型,通過強化學習與冷啟動數據優化推理性能,開源模型刷新多任務標杆。"
},
"DeepSeek-R1-Distill-Qwen-32B": {
"description": "DeepSeek-R1 系列通過強化學習與冷啟動數據優化推理性能,開源模型刷新多任務標杆,超越 OpenAI-o1-mini 水平。"
},
"DeepSeek-R1-Distill-Qwen-7B": {
"description": "基於 Qwen2.5-Math-7B 的 DeepSeek-R1 蒸餾模型,通過強化學習與冷啟動數據優化推理性能,開源模型刷新多任務標杆。"
},
"DeepSeek-V3": {
"description": "DeepSeek-V3 是一款由深度求索公司自研的MoE模型。DeepSeek-V3 多項評測成績超越了 Qwen2.5-72B 和 Llama-3.1-405B 等其他開源模型,並在性能上和世界頂尖的閉源模型 GPT-4o 以及 Claude-3.5-Sonnet 不分伯仲。"
},
"Doubao-lite-128k": {
"description": "Doubao-lite 擁有極致的響應速度,更好的性價比,為客戶不同場景提供更靈活的選擇。支持128k上下文視窗的推理和精調。"
},
"Doubao-lite-32k": {
"description": "Doubao-lite擁有極致的響應速度,更好的性價比,為客戶不同場景提供更靈活的選擇。支持32k上下文視窗的推理和精調。"
},
"Doubao-lite-4k": {
"description": "Doubao-lite擁有極致的響應速度,更好的性價比,為客戶不同場景提供更靈活的選擇。支持4k上下文視窗的推理和精調。"
},
"Doubao-pro-128k": {
"description": "效果最好的主力模型,適合處理複雜任務,在參考問答、總結摘要、創作、文本分類、角色扮演等場景都有很好的效果。支持128k上下文視窗的推理和精調。"
},
"Doubao-pro-32k": {
"description": "效果最好的主力模型,適合處理複雜任務,在參考問答、總結摘要、創作、文本分類、角色扮演等場景都有很好的效果。支持32k上下文視窗的推理和精調。"
},
"Doubao-pro-4k": {
"description": "效果最好的主力模型,適合處理複雜任務,在參考問答、總結摘要、創作、文本分類、角色扮演等場景都有很好的效果。支持4k上下文視窗的推理和精調。"
},
"ERNIE-3.5-128K": {
"description": "百度自研的旗艦級大規模語言模型,覆蓋海量中英文語料,具有強大的通用能力,可滿足絕大部分對話問答、創作生成、插件應用場景要求;支持自動對接百度搜索插件,保障問答信息時效。"
},
"ERNIE-3.5-8K": {
"description": "百度自研的旗艦級大規模語言模型,覆蓋海量中英文語料,具有強大的通用能力,可滿足絕大部分對話問答、創作生成、插件應用場景要求;支持自動對接百度搜索插件,保障問答信息時效。"
},
"ERNIE-3.5-8K-Preview": {
"description": "百度自研的旗艦級大規模語言模型,覆蓋海量中英文語料,具有強大的通用能力,可滿足絕大部分對話問答、創作生成、插件應用場景要求;支持自動對接百度搜索插件,保障問答信息時效。"
},
"ERNIE-4.0-8K-Latest": {
"description": "百度自研的旗艦級超大規模語言模型,相較ERNIE 3.5實現了模型能力全面升級,廣泛適用於各領域複雜任務場景;支持自動對接百度搜索插件,保障問答信息時效。"
},
"ERNIE-4.0-8K-Preview": {
"description": "百度自研的旗艦級超大規模語言模型,相較ERNIE 3.5實現了模型能力全面升級,廣泛適用於各領域複雜任務場景;支持自動對接百度搜索插件,保障問答信息時效。"
},
"ERNIE-4.0-Turbo-8K-Latest": {
"description": "百度自研的旗艦級超大規模大語言模型,綜合效果表現優異,廣泛適用於各領域複雜任務場景;支持自動對接百度搜索插件,保障問答信息時效。相較於 ERNIE 4.0 在性能表現上更為優秀。"
},
"ERNIE-4.0-Turbo-8K-Preview": {
"description": "百度自研的旗艦級超大規模語言模型,綜合效果表現出色,廣泛適用於各領域複雜任務場景;支持自動對接百度搜索插件,保障問答信息時效。相較於ERNIE 4.0在性能表現上更優秀。"
},
"ERNIE-Character-8K": {
"description": "百度自研的垂直場景大語言模型,適合遊戲NPC、客服對話、對話角色扮演等應用場景,人設風格更為鮮明、一致,指令遵循能力更強,推理性能更優。"
},
"ERNIE-Lite-Pro-128K": {
"description": "百度自研的輕量級大語言模型,兼顧優異的模型效果與推理性能,效果比ERNIE Lite更優,適合低算力AI加速卡推理使用。"
},
"ERNIE-Speed-128K": {
"description": "百度2024年最新發布的自研高性能大語言模型,通用能力優異,適合作為基座模型進行精調,更好地處理特定場景問題,同時具備極佳的推理性能。"
},
"ERNIE-Speed-Pro-128K": {
"description": "百度2024年最新發布的自研高性能大語言模型,通用能力優異,效果比ERNIE Speed更優,適合作為基座模型進行精調,更好地處理特定場景問題,同時具備極佳的推理性能。"
},
"Gryphe/MythoMax-L2-13b": {
"description": "MythoMax-L2 (13B) 是一種創新模型,適合多領域應用和複雜任務。"
},
"InternVL2-8B": {
"description": "InternVL2-8B 是一款強大的視覺語言模型,支持圖像與文本的多模態處理,能夠精確識別圖像內容並生成相關描述或回答。"
},
"InternVL2.5-26B": {
"description": "InternVL2.5-26B 是一款強大的視覺語言模型,支持圖像與文本的多模態處理,能夠精確識別圖像內容並生成相關描述或回答。"
},
"Llama-3.2-11B-Vision-Instruct": {
"description": "在高解析度圖像上表現出色的圖像推理能力,適用於視覺理解應用。"
},
"Llama-3.2-90B-Vision-Instruct\t": {
"description": "適用於視覺理解代理應用的高級圖像推理能力。"
},
"Meta-Llama-3.1-405B-Instruct": {
"description": "Llama 3.1指令調優的文本模型,針對多語言對話用例進行了優化,在許多可用的開源和封閉聊天模型中,在常見行業基準上表現優異。"
},
"Meta-Llama-3.1-70B-Instruct": {
"description": "Llama 3.1指令調優的文本模型,針對多語言對話用例進行了優化,在許多可用的開源和封閉聊天模型中,在常見行業基準上表現優異。"
},
"Meta-Llama-3.1-8B-Instruct": {
"description": "Llama 3.1指令調優的文本模型,針對多語言對話用例進行了優化,在許多可用的開源和封閉聊天模型中,在常見行業基準上表現優異。"
},
"Meta-Llama-3.2-1B-Instruct": {
"description": "先進的最尖端小型語言模型,具備語言理解、卓越的推理能力和文本生成能力。"
},
"Meta-Llama-3.2-3B-Instruct": {
"description": "先進的最尖端小型語言模型,具備語言理解、卓越的推理能力和文本生成能力。"
},
"Meta-Llama-3.3-70B-Instruct": {
"description": "Llama 3.3 是 Llama 系列最先進的多語言開源大型語言模型,以極低成本體驗媲美 405B 模型的性能。基於 Transformer 結構,並透過監督微調(SFT)和人類反饋強化學習(RLHF)提升有用性和安全性。其指令調優版本專為多語言對話優化,在多項行業基準上表現優於眾多開源和封閉聊天模型。知識截止日期為 2023 年 12 月"
},
"MiniMax-M1": {
"description": "全新自研推理模型。全球領先:80K思維鏈 x 1M輸入,效果比肩海外頂尖模型。"
},
"MiniMax-Text-01": {
"description": "在 MiniMax-01系列模型中,我們做了大膽創新:首次大規模實現線性注意力機制,傳統 Transformer架構不再是唯一的選擇。這個模型的參數量高達4560億,其中單次激活459億。模型綜合性能比肩海外頂尖模型,同時能夠高效處理全球最長400萬token的上下文,是GPT-4o的32倍,Claude-3.5-Sonnet的20倍。"
},
"MiniMaxAI/MiniMax-M1-80k": {
"description": "MiniMax-M1 是開源權重的大規模混合注意力推理模型,擁有 4560 億參數,每個 Token 可激活約 459 億參數。模型原生支援 100 萬 Token 的超長上下文,並透過閃電注意力機制,在 10 萬 Token 的生成任務中相比 DeepSeek R1 節省 75% 的浮點運算量。同時,MiniMax-M1 採用 MoE(混合專家)架構,結合 CISPO 演算法與混合注意力設計的高效強化學習訓練,在長輸入推理與真實軟體工程場景中實現了業界領先的性能。"
},
"NousResearch/Nous-Hermes-2-Mixtral-8x7B-DPO": {
"description": "Nous Hermes 2 - Mixtral 8x7B-DPO (46.7B) 是高精度的指令模型,適用於複雜計算。"
},
"Phi-3-medium-128k-instruct": {
"description": "相同的Phi-3-medium模型,但具有更大的上下文大小,適用於RAG或少量提示。"
},
"Phi-3-medium-4k-instruct": {
"description": "一個14B參數模型,質量優於Phi-3-mini,專注於高質量、推理密集型數據。"
},
"Phi-3-mini-128k-instruct": {
"description": "相同的Phi-3-mini模型,但具有更大的上下文大小,適用於RAG或少量提示。"
},
"Phi-3-mini-4k-instruct": {
"description": "Phi-3系列中最小的成員。優化了質量和低延遲。"
},
"Phi-3-small-128k-instruct": {
"description": "相同的Phi-3-small模型,但具有更大的上下文大小,適用於RAG或少量提示。"
},
"Phi-3-small-8k-instruct": {
"description": "一個7B參數模型,質量優於Phi-3-mini,專注於高質量、推理密集型數據。"
},
"Phi-3.5-mini-instruct": {
"description": "Phi-3-mini模型的更新版。"
},
"Phi-3.5-vision-instrust": {
"description": "Phi-3-vision模型的更新版。"
},
"Pro/Qwen/Qwen2-7B-Instruct": {
"description": "Qwen2-7B-Instruct 是 Qwen2 系列中的指令微調大語言模型,參數規模為 7B。該模型基於 Transformer 架構,採用了 SwiGLU 激活函數、注意力 QKV 偏置和組查詢注意力等技術。它能夠處理大規模輸入。該模型在語言理解、生成、多語言能力、編碼、數學和推理等多個基準測試中表現出色,超越了大多數開源模型,並在某些任務上展現出與專有模型相當的競爭力。Qwen2-7B-Instruct 在多項評測中均優於 Qwen1.5-7B-Chat,顯示出顯著的性能提升"
},
"Pro/Qwen/Qwen2.5-7B-Instruct": {
"description": "Qwen2.5-7B-Instruct 是阿里雲發布的最新大語言模型系列之一。該 7B 模型在編碼和數學等領域具有顯著改進的能力。該模型還提供了多語言支持,覆蓋超過 29 種語言,包括中文、英文等。模型在指令跟隨、理解結構化數據以及生成結構化輸出(尤其是 JSON)方面都有顯著提升"
},
"Pro/Qwen/Qwen2.5-Coder-7B-Instruct": {
"description": "Qwen2.5-Coder-7B-Instruct 是阿里雲發布的代碼特定大語言模型系列的最新版本。該模型在 Qwen2.5 的基礎上,通過 5.5 萬億個 tokens 的訓練,顯著提升了代碼生成、推理和修復能力。它不僅增強了編碼能力,還保持了數學和通用能力的優勢。模型為代碼智能體等實際應用提供了更全面的基礎"
},
"Pro/Qwen/Qwen2.5-VL-7B-Instruct": {
"description": "Qwen2.5-VL 是 Qwen 系列的新成員,具備強大的視覺理解能力,能分析圖像中的文字、圖表和版面配置,並能理解長影片和捕捉事件。它可以進行推理、操作工具,支援多格式物件定位和生成結構化輸出,優化了影片理解的動態解析度與影格率訓練,並提升了視覺編碼器效率。"
},
"Pro/THUDM/GLM-4.1V-9B-Thinking": {
"description": "GLM-4.1V-9B-Thinking 是由智譜 AI 和清華大學 KEG 實驗室聯合發布的一款開源視覺語言模型(VLM),專為處理複雜的多模態認知任務而設計。該模型基於 GLM-4-9B-0414 基礎模型,通過引入「思維鏈」(Chain-of-Thought)推理機制和採用強化學習策略,顯著提升了其跨模態的推理能力和穩定性。"
},
"Pro/THUDM/glm-4-9b-chat": {
"description": "GLM-4-9B-Chat 是智譜 AI 推出的 GLM-4 系列預訓練模型中的開源版本。該模型在語義、數學、推理、代碼和知識等多個方面表現出色。除了支持多輪對話外,GLM-4-9B-Chat 還具備網頁瀏覽、代碼執行、自定義工具調用(Function Call)和長文本推理等高級功能。模型支持 26 種語言,包括中文、英文、日文、韓文和德文等。在多項基準測試中,GLM-4-9B-Chat 展現了優秀的性能,如 AlignBench-v2、MT-Bench、MMLU 和 C-Eval 等。該模型支持最大 128K 的上下文長度,適用於學術研究和商業應用"
},
"Pro/deepseek-ai/DeepSeek-R1": {
"description": "DeepSeek-R1 是一款強化學習(RL)驅動的推理模型,解決了模型中的重複性和可讀性問題。在 RL 之前,DeepSeek-R1 引入了冷啟動數據,進一步優化了推理性能。它在數學、代碼和推理任務中與 OpenAI-o1 表現相當,並且透過精心設計的訓練方法,提升了整體效果。"
},
"Pro/deepseek-ai/DeepSeek-R1-Distill-Qwen-7B": {
"description": "DeepSeek-R1-Distill-Qwen-7B 是基於 Qwen2.5-Math-7B 透過知識蒸餾技術所獲得的模型。該模型使用 DeepSeek-R1 生成的 80 萬個精選樣本進行微調,展現出優異的推理能力。在多個基準測試中表現出色,其中在 MATH-500 上達到了 92.8% 的準確率,在 AIME 2024 上達到了 55.5% 的通過率,在 CodeForces 上獲得了 1189 的評分,作為 7B 規模的模型展示了較強的數學和程式設計能力。"
},
"Pro/deepseek-ai/DeepSeek-V3": {
"description": "DeepSeek-V3 是一款擁有 6710 億參數的混合專家(MoE)語言模型,採用多頭潛在注意力(MLA)和 DeepSeekMoE 架構,結合無輔助損失的負載平衡策略,優化推理和訓練效率。透過在 14.8 萬億高質量tokens上預訓練,並進行監督微調和強化學習,DeepSeek-V3 在性能上超越其他開源模型,接近領先閉源模型。"
},
"QwQ-32B-Preview": {
"description": "QwQ-32B-Preview 是一款獨具創新的自然語言處理模型,能夠高效處理複雜的對話生成與上下文理解任務。"
},
"Qwen/QVQ-72B-Preview": {
"description": "QVQ-72B-Preview 是由 Qwen 團隊開發的專注於視覺推理能力的研究型模型,其在複雜場景理解和解決視覺相關的數學問題方面具有獨特優勢。"
},
"Qwen/QwQ-32B": {
"description": "QwQ 是 Qwen 系列的推理模型。與傳統的指令調優模型相比,QwQ 具備思考和推理能力,能夠在下游任務中實現顯著增強的性能,尤其是在解決困難問題方面。QwQ-32B 是中型推理模型,能夠在與最先進的推理模型(如 DeepSeek-R1、o1-mini)的對比中取得有競爭力的性能。該模型採用 RoPE、SwiGLU、RMSNorm 和 Attention QKV bias 等技術,具有 64 層網絡結構和 40 個 Q 注意力頭(GQA 架構中 KV 為 8 個)。"
},
"Qwen/QwQ-32B-Preview": {
"description": "QwQ-32B-Preview是Qwen 最新的實驗性研究模型,專注於提升AI推理能力。通過探索語言混合、遞歸推理等複雜機制,主要優勢包括強大的推理分析能力、數學和編程能力。與此同時,也存在語言切換問題、推理循環、安全性考量、其他能力方面的差異。"
},
"Qwen/Qwen2-72B-Instruct": {
"description": "Qwen2 是先進的通用語言模型,支持多種指令類型。"
},
"Qwen/Qwen2-7B-Instruct": {
"description": "Qwen2-72B-Instruct 是 Qwen2 系列中的指令微調大語言模型,參數規模為 72B。該模型基於 Transformer 架構,採用了 SwiGLU 激活函數、注意力 QKV 偏置和組查詢注意力等技術。它能夠處理大規模輸入。該模型在語言理解、生成、多語言能力、編碼、數學和推理等多個基準測試中表現出色,超越了大多數開源模型,並在某些任務上展現出與專有模型相當的競爭力"
},
"Qwen/Qwen2-VL-72B-Instruct": {
"description": "Qwen2-VL 是 Qwen-VL 模型的最新迭代版本,在視覺理解基準測試中達到了最先進的性能。"
},
"Qwen/Qwen2.5-14B-Instruct": {
"description": "Qwen2.5是全新的大型語言模型系列,旨在優化指令式任務的處理。"
},
"Qwen/Qwen2.5-32B-Instruct": {
"description": "Qwen2.5是全新的大型語言模型系列,旨在優化指令式任務的處理。"
},
"Qwen/Qwen2.5-72B-Instruct": {
"description": "阿里雲通義千問團隊開發的大型語言模型"
},
"Qwen/Qwen2.5-72B-Instruct-128K": {
"description": "Qwen2.5 是全新的大型語言模型系列,具有更強的理解和生成能力。"
},
"Qwen/Qwen2.5-72B-Instruct-Turbo": {
"description": "Qwen2.5 是全新的大型語言模型系列,旨在優化指令式任務的處理。"
},
"Qwen/Qwen2.5-7B-Instruct": {
"description": "Qwen2.5是全新的大型語言模型系列,旨在優化指令式任務的處理。"
},
"Qwen/Qwen2.5-7B-Instruct-Turbo": {
"description": "Qwen2.5 是全新的大型語言模型系列,旨在優化指令式任務的處理。"
},
"Qwen/Qwen2.5-Coder-32B-Instruct": {
"description": "Qwen2.5-Coder 專注於代碼編寫。"
},
"Qwen/Qwen2.5-Coder-7B-Instruct": {
"description": "Qwen2.5-Coder-7B-Instruct 是阿里雲發布的代碼特定大語言模型系列的最新版本。該模型在 Qwen2.5 的基礎上,通過 5.5 萬億個 tokens 的訓練,顯著提升了代碼生成、推理和修復能力。它不僅增強了編碼能力,還保持了數學和通用能力的優勢。模型為代碼智能體等實際應用提供了更全面的基礎"
},
"Qwen/Qwen2.5-VL-32B-Instruct": {
"description": "Qwen2.5-VL-32B-Instruct 是通義千問團隊推出的多模態大型模型,屬於 Qwen2.5-VL 系列的一部分。該模型不僅能精準識別常見物體,更能分析圖像中的文字、圖表、圖標、圖形與版面配置。它可作為視覺智能代理,具備推理能力並能動態操作工具,擁有使用電腦與手機的實用功能。此外,此模型能精確定位圖像中的物件,並為發票、表格等文件生成結構化輸出。相較於前代模型 Qwen2-VL,此版本透過強化學習在數學與問題解決能力方面獲得顯著提升,回應風格也更貼近人類偏好。"
},
"Qwen/Qwen2.5-VL-72B-Instruct": {
"description": "Qwen2.5-VL 是 Qwen2.5 系列中的視覺語言模型。該模型在多方面有顯著提升:具備更強的視覺理解能力,能夠識別常見物體、分析文本、圖表和版面配置;作為視覺代理能夠推理並動態指導工具使用;支援理解超過 1 小時的長影片並捕捉關鍵事件;能夠透過生成邊界框或點準確定位圖像中的物體;支援生成結構化輸出,尤其適用於發票、表格等掃描資料。"
},
"Qwen/Qwen3-14B": {
"description": "Qwen3 是一款能力大幅提升的新一代通義千問大模型,在推理、通用、Agent 和多語言等多個核心能力上均達到業界領先水平,並支持思考模式切換。"
},
"Qwen/Qwen3-235B-A22B": {
"description": "Qwen3 是一款能力大幅提升的新一代通義千問大模型,在推理、通用、Agent 和多語言等多個核心能力上均達到業界領先水平,並支持思考模式切換。"
},
"Qwen/Qwen3-30B-A3B": {
"description": "Qwen3 是一款能力大幅提升的新一代通義千問大模型,在推理、通用、Agent 和多語言等多個核心能力上均達到業界領先水平,並支持思考模式切換。"
},
"Qwen/Qwen3-32B": {
"description": "Qwen3 是一款能力大幅提升的新一代通義千問大模型,在推理、通用、Agent 和多語言等多個核心能力上均達到業界領先水平,並支持思考模式切換。"
},
"Qwen/Qwen3-8B": {
"description": "Qwen3 是一款能力大幅提升的新一代通義千問大模型,在推理、通用、Agent 和多語言等多個核心能力上均達到業界領先水平,並支持思考模式切換。"
},
"Qwen2-72B-Instruct": {
"description": "Qwen2 是 Qwen 模型的最新系列,支持 128k 上下文,對比當前最優的開源模型,Qwen2-72B 在自然語言理解、知識、代碼、數學及多語言等多項能力上均顯著超越當前領先的模型。"
},
"Qwen2-7B-Instruct": {
"description": "Qwen2 是 Qwen 模型的最新系列,能夠超越同等規模的最優開源模型甚至更大規模的模型,Qwen2 7B 在多個評測上取得顯著的優勢,尤其是在代碼及中文理解上。"
},
"Qwen2-VL-72B": {
"description": "Qwen2-VL-72B是一款強大的視覺語言模型,支持圖像與文本的多模態處理,能夠精確識別圖像內容並生成相關描述或回答。"
},
"Qwen2.5-14B-Instruct": {
"description": "Qwen2.5-14B-Instruct 是一款140億參數的大語言模型,性能表現優秀,優化中文和多語言場景,支持智能問答、內容生成等應用。"
},
"Qwen2.5-32B-Instruct": {
"description": "Qwen2.5-32B-Instruct 是一款320億參數的大語言模型,性能表現均衡,優化中文和多語言場景,支持智能問答、內容生成等應用。"
},
"Qwen2.5-72B-Instruct": {
"description": "Qwen2.5-72B-Instruct 支持 16k 上下文,生成長文本超過 8K。支持 function call 與外部系統無縫互動,極大提升了靈活性和擴展性。模型知識明顯增加,並且大幅提高了編碼和數學能力,多語言支持超過 29 種。"
},
"Qwen2.5-7B-Instruct": {
"description": "Qwen2.5-7B-Instruct 是一款70億參數的大語言模型,支持函數調用與外部系統無縫互動,極大提升了靈活性和擴展性。優化中文和多語言場景,支持智能問答、內容生成等應用。"
},
"Qwen2.5-Coder-14B-Instruct": {
"description": "Qwen2.5-Coder-14B-Instruct 是一款基於大規模預訓練的程式指令模型,具備強大的程式理解和生成能力,能夠高效地處理各種程式任務,特別適合智能程式編寫、自動化腳本生成和程式問題解答。"
},
"Qwen2.5-Coder-32B-Instruct": {
"description": "Qwen2.5-Coder-32B-Instruct 是一款專為代碼生成、代碼理解和高效開發場景設計的大型語言模型,採用了業界領先的32B參數規模,能夠滿足多樣化的程式需求。"
},
"SenseChat": {
"description": "基礎版本模型 (V4),4K上下文長度,通用能力強大"
},
"SenseChat-128K": {
"description": "基礎版本模型 (V4),128K上下文長度,在長文本理解及生成等任務中表現出色"
},
"SenseChat-32K": {
"description": "基礎版本模型 (V4),32K上下文長度,靈活應用於各類場景"
},
"SenseChat-5": {
"description": "最新版本模型 (V5.5),128K上下文長度,在數學推理、英文對話、指令跟隨以及長文本理解等領域能力顯著提升,比肩GPT-4o"
},
"SenseChat-5-1202": {
"description": "是基於 V5.5 的最新版本,較上版本在中英文基礎能力、聊天、理科知識、文科知識、寫作、數理邏輯、字數控制等幾個維度的表現有顯著提升。"
},
"SenseChat-5-Cantonese": {
"description": "32K上下文長度,在粵語的對話理解上超越了GPT-4,在知識、推理、數學及程式編寫等多個領域均能與GPT-4 Turbo相媲美"
},
"SenseChat-5-beta": {
"description": "部分性能優於 SenseCat-5-1202"
},
"SenseChat-Character": {
"description": "標準版模型,8K上下文長度,高響應速度"
},
"SenseChat-Character-Pro": {
"description": "高級版模型,32K上下文長度,能力全面提升,支持中/英文對話"
},
"SenseChat-Turbo": {
"description": "適用於快速問答、模型微調場景"
},
"SenseChat-Turbo-1202": {
"description": "是最新的輕量版本模型,達到全量模型90%以上能力,顯著降低推理成本。"
},
"SenseChat-Vision": {
"description": "最新版本模型 (V5.5),支持多圖的輸入,全面實現模型基礎能力優化,在對象屬性識別、空間關係、動作事件識別、場景理解、情感識別、邏輯常識推理和文本理解生成上都實現了較大提升。"
},
"SenseNova-V6-Pro": {
"description": "實現圖片、文本、視頻能力的原生統一,突破傳統多模態分立局限,在OpenCompass和SuperCLUE評測中斬獲雙冠軍。"
},
"SenseNova-V6-Reasoner": {
"description": "兼顧視覺、語言深度推理,實現慢思考和深度推理,呈現完整的思維鏈過程。"
},
"SenseNova-V6-Turbo": {
"description": "實現圖片、文本、視頻能力的原生統一,突破傳統多模態分立局限,在多模基礎能力、語言基礎能力等核心維度全面領先,文理兼修,在多項測評中多次位列國內外第一梯隊水平。"
},
"Skylark2-lite-8k": {
"description": "雲雀(Skylark)第二代模型,Skylark2-lite 模型有較高的回應速度,適用於實時性要求高、成本敏感、對模型精度要求不高的場景,上下文窗口長度為 8k。"
},
"Skylark2-pro-32k": {
"description": "雲雀(Skylark)第二代模型,Skylark2-pro 版本有較高的模型精度,適用於較為複雜的文本生成場景,如專業領域文案生成、小說創作、高品質翻譯等,上下文窗口長度為 32k。"
},
"Skylark2-pro-4k": {
"description": "雲雀(Skylark)第二代模型,Skylark2-pro 模型有較高的模型精度,適用於較為複雜的文本生成場景,如專業領域文案生成、小說創作、高品質翻譯等,上下文窗口長度為 4k。"
},
"Skylark2-pro-character-4k": {
"description": "雲雀(Skylark)第二代模型,Skylark2-pro-character 模型具有優秀的角色扮演和聊天能力,擅長根據用戶 prompt 要求扮演不同角色與用戶展開聊天,角色風格突出,對話內容自然流暢,適用於構建聊天機器人、虛擬助手和在線客服等場景,有較高的回應速度。"
},
"Skylark2-pro-turbo-8k": {
"description": "雲雀(Skylark)第二代模型,Skylark2-pro-turbo-8k 推理更快,成本更低,上下文窗口長度為 8k。"
},
"THUDM/GLM-4-32B-0414": {
"description": "GLM-4-32B-0414 是 GLM 系列的新一代開源模型,擁有 320 億參數。該模型性能可與 OpenAI 的 GPT 系列和 DeepSeek 的 V3/R1 系列相媲美。"
},
"THUDM/GLM-4-9B-0414": {
"description": "GLM-4-9B-0414 是 GLM 系列的小型模型,擁有 90 億參數。該模型繼承了 GLM-4-32B 系列的技術特點,但提供了更輕量級的部署選擇。儘管規模較小,GLM-4-9B-0414 仍在程式碼生成、網頁設計、SVG 圖形生成和基於搜索的寫作等任務上展現出色能力。"
},
"THUDM/GLM-4.1V-9B-Thinking": {
"description": "GLM-4.1V-9B-Thinking 是由智譜 AI 和清華大學 KEG 實驗室聯合發布的一款開源視覺語言模型(VLM),專為處理複雜的多模態認知任務而設計。該模型基於 GLM-4-9B-0414 基礎模型,通過引入「思維鏈」(Chain-of-Thought)推理機制和採用強化學習策略,顯著提升了其跨模態的推理能力和穩定性。"
},
"THUDM/GLM-Z1-32B-0414": {
"description": "GLM-Z1-32B-0414 是一個具有深度思考能力的推理模型。該模型基於 GLM-4-32B-0414 通過冷啟動和擴展強化學習開發,並在數學、程式碼和邏輯任務上進行了進一步訓練。與基礎模型相比,GLM-Z1-32B-0414 顯著提升了數學能力和解決複雜任務的能力。"
},
"THUDM/GLM-Z1-9B-0414": {
"description": "GLM-Z1-9B-0414 是 GLM 系列的小型模型,僅有 90 億參數,但保持了開源傳統的同時展現出驚人的能力。儘管規模較小,該模型在數學推理和通用任務上仍表現出色,其整體性能在同等規模的開源模型中已處於領先水平。"
},
"THUDM/GLM-Z1-Rumination-32B-0414": {
"description": "GLM-Z1-Rumination-32B-0414 是一個具有沉思能力的深度推理模型(與 OpenAI 的 Deep Research 對標)。與典型的深度思考模型不同,沉思模型採用更長時間的深度思考來解決更開放和複雜的問題。"
},
"THUDM/glm-4-9b-chat": {
"description": "GLM-4 9B 開放源碼版本,為會話應用提供優化後的對話體驗。"
},
"Tongyi-Zhiwen/QwenLong-L1-32B": {
"description": "QwenLong-L1-32B 是首個使用強化學習訓練的長上下文大型推理模型(LRM),專門針對長文本推理任務進行優化。該模型透過漸進式上下文擴展的強化學習框架,實現了從短上下文到長上下文的穩定遷移。在七個長上下文文件問答基準測試中,QwenLong-L1-32B 超越了 OpenAI-o3-mini 和 Qwen3-235B-A22B 等旗艦模型,性能可媲美 Claude-3.7-Sonnet-Thinking。該模型特別擅長數學推理、邏輯推理和多跳推理等複雜任務。"
},
"Yi-34B-Chat": {
"description": "Yi-1.5-34B 在保持原系列模型優秀的通用語言能力的前提下,通過增量訓練 5 千億高質量 token,大幅提高了數學邏輯和代碼能力。"
},
"abab5.5-chat": {
"description": "面向生產力場景,支持複雜任務處理和高效文本生成,適用於專業領域應用。"
},
"abab5.5s-chat": {
"description": "專為中文人設對話場景設計,提供高質量的中文對話生成能力,適用於多種應用場景。"
},
"abab6.5g-chat": {
"description": "專為多語種人設對話設計,支持英文及其他多種語言的高質量對話生成。"
},
"abab6.5s-chat": {
"description": "適用於廣泛的自然語言處理任務,包括文本生成、對話系統等。"
},
"abab6.5t-chat": {
"description": "針對中文人設對話場景優化,提供流暢且符合中文表達習慣的對話生成能力。"
},
"accounts/fireworks/models/deepseek-r1": {
"description": "DeepSeek-R1 是一款最先進的大型語言模型,經過強化學習和冷啟動數據的優化,具有出色的推理、數學和編程性能。"
},
"accounts/fireworks/models/deepseek-v3": {
"description": "Deepseek 提供的強大 Mixture-of-Experts (MoE) 語言模型,總參數量為 671B,每個標記激活 37B 參數。"
},
"accounts/fireworks/models/llama-v3-70b-instruct": {
"description": "Llama 3 70B 指令模型,專為多語言對話和自然語言理解優化,性能優於多數競爭模型。"
},
"accounts/fireworks/models/llama-v3-8b-instruct": {
"description": "Llama 3 8B 指令模型,優化用於對話及多語言任務,表現卓越且高效。"
},
"accounts/fireworks/models/llama-v3-8b-instruct-hf": {
"description": "Llama 3 8B 指令模型(HF 版本),與官方實現結果一致,具備高度一致性和跨平台兼容性。"
},
"accounts/fireworks/models/llama-v3p1-405b-instruct": {
"description": "Llama 3.1 405B 指令模型,具備超大規模參數,適合複雜任務和高負載場景下的指令跟隨。"
},
"accounts/fireworks/models/llama-v3p1-70b-instruct": {
"description": "Llama 3.1 70B 指令模型,提供卓越的自然語言理解和生成能力,是對話及分析任務的理想選擇。"
},
"accounts/fireworks/models/llama-v3p1-8b-instruct": {
"description": "Llama 3.1 8B 指令模型,專為多語言對話優化,能夠在常見行業基準上超越多數開源及閉源模型。"
},
"accounts/fireworks/models/llama-v3p2-11b-vision-instruct": {
"description": "Meta的11B參數指令調整圖像推理模型。該模型針對視覺識別、圖像推理、圖像描述和回答關於圖像的一般性問題進行了優化。該模型能夠理解視覺數據,如圖表和圖形,並通過生成文本描述圖像細節來弥合視覺與語言之間的差距。"
},
"accounts/fireworks/models/llama-v3p2-3b-instruct": {
"description": "Llama 3.2 3B 指令模型是Meta推出的一款輕量級多語言模型。該模型旨在提高效率,與更大型的模型相比,在延遲和成本方面提供了顯著的改進。該模型的示例用例包括查詢和提示重寫以及寫作輔助。"
},
"accounts/fireworks/models/llama-v3p2-90b-vision-instruct": {
"description": "Meta的90B參數指令調整圖像推理模型。該模型針對視覺識別、圖像推理、圖像描述和回答關於圖像的一般性問題進行了優化。該模型能夠理解視覺數據,如圖表和圖形,並通過生成文本描述圖像細節來弥合視覺與語言之間的差距。"
},
"accounts/fireworks/models/llama-v3p3-70b-instruct": {
"description": "Llama 3.3 70B Instruct 是 Llama 3.1 70B 的 12 月更新版本。該模型在 Llama 3.1 70B(於 2024 年 7 月發布)的基礎上進行了改進,增強了工具調用、多語言文本支持、數學和編程能力。該模型在推理、數學和指令遵循方面達到了行業領先水平,並且能夠提供與 3.1 405B 相似的性能,同時在速度和成本上具有顯著優勢。"
},
"accounts/fireworks/models/mistral-small-24b-instruct-2501": {
"description": "24B 參數模型,具備與更大型模型相當的最先進能力。"
},
"accounts/fireworks/models/mixtral-8x22b-instruct": {
"description": "Mixtral MoE 8x22B 指令模型,大規模參數和多專家架構,全方位支持複雜任務的高效處理。"
},
"accounts/fireworks/models/mixtral-8x7b-instruct": {
"description": "Mixtral MoE 8x7B 指令模型,多專家架構提供高效的指令跟隨及執行。"
},
"accounts/fireworks/models/mythomax-l2-13b": {
"description": "MythoMax L2 13B 模型,結合新穎的合併技術,擅長敘事和角色扮演。"
},
"accounts/fireworks/models/phi-3-vision-128k-instruct": {
"description": "Phi 3 Vision 指令模型,輕量級多模態模型,能夠處理複雜的視覺和文本信息,具備較強的推理能力。"
},
"accounts/fireworks/models/qwen-qwq-32b-preview": {
"description": "QwQ模型是由 Qwen 團隊開發的實驗性研究模型,專注於增強 AI 推理能力。"
},
"accounts/fireworks/models/qwen2-vl-72b-instruct": {
"description": "Qwen-VL 模型的 72B 版本是阿里巴巴最新迭代的成果,代表了近一年的創新。"
},
"accounts/fireworks/models/qwen2p5-72b-instruct": {
"description": "Qwen2.5 是由阿里雲 Qwen 團隊開發的一系列僅包含解碼器的語言模型。這些模型提供不同的大小,包括 0.5B、1.5B、3B、7B、14B、32B 和 72B,並且有基礎版(base)和指令版(instruct)兩種變體。"
},
"accounts/fireworks/models/qwen2p5-coder-32b-instruct": {
"description": "Qwen2.5 Coder 32B Instruct 是阿里雲發布的代碼特定大語言模型系列的最新版本。該模型在 Qwen2.5 的基礎上,通過 5.5 萬億個 tokens 的訓練,顯著提升了代碼生成、推理和修復能力。它不僅增強了編碼能力,還保持了數學和通用能力的優勢。模型為代碼智能體等實際應用提供了更全面的基礎"
},
"accounts/yi-01-ai/models/yi-large": {
"description": "Yi-Large 模型,具備卓越的多語言處理能力,可用於各類語言生成和理解任務。"
},
"ai21-jamba-1.5-large": {
"description": "一個398B參數(94B活躍)多語言模型,提供256K長上下文窗口、函數調用、結構化輸出和基於實體的生成。"
},
"ai21-jamba-1.5-mini": {
"description": "一個52B參數(12B活躍)多語言模型,提供256K長上下文窗口、函數調用、結構化輸出和基於實體的生成。"
},
"ai21-labs/AI21-Jamba-1.5-Large": {
"description": "一個 398B 參數(94B 活躍)的多語言模型,提供 256K 長上下文視窗、函數呼叫、結構化輸出和基於事實的生成。"
},
"ai21-labs/AI21-Jamba-1.5-Mini": {
"description": "一個 52B 參數(12B 活躍)的多語言模型,提供 256K 長上下文視窗、函數呼叫、結構化輸出和基於事實的生成。"
},
"anthropic.claude-3-5-sonnet-20240620-v1:0": {
"description": "Claude 3.5 Sonnet提升了行業標準,性能超過競爭對手模型和Claude 3 Opus,在廣泛的評估中表現出色,同時具有我們中等層級模型的速度和成本。"
},
"anthropic.claude-3-5-sonnet-20241022-v2:0": {
"description": "Claude 3.5 Sonnet 提升了行業標準,性能超越競爭對手模型和 Claude 3 Opus,在廣泛的評估中表現出色,同時具備我們中等層級模型的速度和成本。"
},
"anthropic.claude-3-haiku-20240307-v1:0": {
"description": "Claude 3 Haiku是Anthropic最快、最緊湊的模型,提供近乎即時的響應速度。它可以快速回答簡單的查詢和請求。客戶將能夠構建模仿人類互動的無縫AI體驗。Claude 3 Haiku可以處理圖像並返回文本輸出,具有200K的上下文窗口。"
},
"anthropic.claude-3-opus-20240229-v1:0": {
"description": "Claude 3 Opus是Anthropic最強大的AI模型,具有在高度複雜任務上的最先進性能。它可以處理開放式提示和未見過的場景,具有出色的流暢性和類人的理解能力。Claude 3 Opus展示了生成AI可能性的前沿。Claude 3 Opus可以處理圖像並返回文本輸出,具有200K的上下文窗口。"
},
"anthropic.claude-3-sonnet-20240229-v1:0": {
"description": "Anthropic的Claude 3 Sonnet在智能和速度之間達到了理想的平衡——特別適合企業工作負載。它以低於競爭對手的價格提供最大的效用,並被設計成為可靠的、高耐用的主力機,適用於規模化的AI部署。Claude 3 Sonnet可以處理圖像並返回文本輸出,具有200K的上下文窗口。"
},
"anthropic.claude-instant-v1": {
"description": "一款快速、經濟且仍然非常有能力的模型,可以處理包括日常對話、文本分析、總結和文檔問答在內的一系列任務。"
},
"anthropic.claude-v2": {
"description": "Anthropic在從複雜對話和創意內容生成到詳細指令跟隨的廣泛任務中都表現出高度能力的模型。"
},
"anthropic.claude-v2:1": {
"description": "Claude 2的更新版,具有雙倍的上下文窗口,以及在長文檔和RAG上下文中的可靠性、幻覺率和基於證據的準確性的改進。"
},
"anthropic/claude-3-haiku": {
"description": "Claude 3 Haiku 是 Anthropic 的最快且最緊湊的模型,旨在實現近乎即時的響應。它具有快速且準確的定向性能。"
},
"anthropic/claude-3-opus": {
"description": "Claude 3 Opus 是 Anthropic 用於處理高度複雜任務的最強大模型。它在性能、智能、流暢性和理解力方面表現卓越。"
},
"anthropic/claude-3.5-haiku": {
"description": "Claude 3.5 Haiku 是 Anthropic 最快的下一代模型。與 Claude 3 Haiku 相比,Claude 3.5 Haiku 在各項技能上都有所提升,並在許多智力基準測試中超越了上一代最大的模型 Claude 3 Opus。"
},
"anthropic/claude-3.5-sonnet": {
"description": "Claude 3.5 Sonnet 提供了超越 Opus 的能力和比 Sonnet 更快的速度,同時保持與 Sonnet 相同的價格。Sonnet 特別擅長程式設計、數據科學、視覺處理、代理任務。"
},
"anthropic/claude-3.7-sonnet": {
"description": "Claude 3.7 Sonnet 是 Anthropic 迄今為止最智能的模型,也是市場上首個混合推理模型。Claude 3.7 Sonnet 可以產生近乎即時的回應或延長的逐步思考,使用者可以清晰地看到這些過程。Sonnet 特別擅長程式設計、數據科學、視覺處理、代理任務。"
},
"anthropic/claude-opus-4": {
"description": "Claude Opus 4 是 Anthropic 用於處理高度複雜任務的最強大模型。它在性能、智慧、流暢性和理解力方面表現卓越。"
},
"anthropic/claude-sonnet-4": {
"description": "Claude Sonnet 4 可以產生近乎即時的回應或延長的逐步思考,使用者可以清楚地看到這些過程。API 使用者還可以對模型思考的時間進行細緻的控制。"
},
"ascend-tribe/pangu-pro-moe": {
"description": "Pangu-Pro-MoE 72B-A16B 是一款 720 億參數、激活 160 億參的稀疏大型語言模型,它基於分組混合專家(MoGE)架構,它在專家選擇階段對專家進行分組,並約束 token 在每個組內激活等量專家,從而實現專家負載均衡,顯著提升模型在昇騰平台的部署效率。"
},
"aya": {
"description": "Aya 23 是 Cohere 推出的多語言模型,支持 23 種語言,為多元化語言應用提供便利。"
},
"aya:35b": {
"description": "Aya 23 是 Cohere 推出的多語言模型,支持 23 種語言,為多元化語言應用提供便利。"
},
"baichuan/baichuan2-13b-chat": {
"description": "Baichuan-13B百川智能開發的包含130億參數的開源可商用的大規模語言模型,在權威的中文和英文benchmark上均取得同尺寸最好的效果。"
},
"baidu/ERNIE-4.5-300B-A47B": {
"description": "ERNIE-4.5-300B-A47B 是由百度公司開發的一款基於混合專家(MoE)架構的大型語言模型。該模型總參數量為 3000 億,但在推理時每個 token 僅激活 470 億參數,從而在保證強大性能的同時兼顧了計算效率。作為 ERNIE 4.5 系列的核心模型之一,在文本理解、生成、推理和程式設計等任務上展現出卓越的能力。該模型採用了一種創新的多模態異構 MoE 預訓練方法,通過文本與視覺模態的聯合訓練,有效提升了模型的綜合能力,尤其在指令遵循和世界知識記憶方面效果突出。"
},
"c4ai-aya-expanse-32b": {
"description": "Aya Expanse 是一款高性能的 32B 多語言模型,旨在通過指令調優、數據套利、偏好訓練和模型合併的創新,挑戰單語言模型的表現。它支持 23 種語言。"
},
"c4ai-aya-expanse-8b": {
"description": "Aya Expanse 是一款高性能的 8B 多語言模型,旨在通過指令調優、數據套利、偏好訓練和模型合併的創新,挑戰單語言模型的表現。它支持 23 種語言。"
},
"c4ai-aya-vision-32b": {
"description": "Aya Vision 是一款最先進的多模態模型,在語言、文本和圖像能力的多個關鍵基準上表現出色。它支持 23 種語言。這個 320 億參數的版本專注於最先進的多語言表現。"
},
"c4ai-aya-vision-8b": {
"description": "Aya Vision 是一款最先進的多模態模型,在語言、文本和圖像能力的多個關鍵基準上表現出色。這個 80 億參數的版本專注於低延遲和最佳性能。"
},
"charglm-3": {
"description": "CharGLM-3專為角色扮演與情感陪伴設計,支持超長多輪記憶與個性化對話,應用廣泛。"
},
"charglm-4": {
"description": "CharGLM-4 專為角色扮演與情感陪伴設計,支持超長多輪記憶與個性化對話,應用廣泛。"
},
"chatglm3": {
"description": "ChatGLM3 是智譜 AI 與清華 KEG 實驗室發佈的閉源模型,經過海量中英標識符的預訓練與人類偏好對齊訓練,相比一代模型在 MMLU、C-Eval、GSM8K 分別取得了 16%、36%、280% 的提升,並登頂中文任務榜單 C-Eval。適用於對知識量、推理能力、創造力要求較高的場景,比如廣告文案、小說寫作、知識類寫作、代碼生成等。"
},
"chatglm3-6b-base": {
"description": "ChatGLM3-6b-base 是由智譜開發的 ChatGLM 系列最新一代的 60 億參數規模的開源的基礎模型。"
},
"chatgpt-4o-latest": {
"description": "ChatGPT-4o是一款動態模型,實時更新以保持當前最新版本。它結合了強大的語言理解與生成能力,適合於大規模應用場景,包括客戶服務、教育和技術支持。"
},
"claude-2.0": {
"description": "Claude 2 為企業提供了關鍵能力的進步,包括業界領先的 200K token 上下文、大幅降低模型幻覺的發生率、系統提示以及一個新的測試功能:工具調用。"
},
"claude-2.1": {
"description": "Claude 2 為企業提供了關鍵能力的進步,包括業界領先的 200K token 上下文、大幅降低模型幻覺的發生率、系統提示以及一個新的測試功能:工具調用。"
},
"claude-3-5-haiku-20241022": {
"description": "Claude 3.5 Haiku 是 Anthropic 最快的下一代模型。與 Claude 3 Haiku 相比,Claude 3.5 Haiku 在各項技能上都有所提升,並在許多智力基準測試中超越了上一代最大的模型 Claude 3 Opus。"
},
"claude-3-5-sonnet-20240620": {
"description": "Claude 3.5 Sonnet 提供了超越 Opus 的能力和比 Sonnet 更快的速度,同時保持與 Sonnet 相同的價格。Sonnet 特別擅長編程、數據科學、視覺處理、代理任務。"
},
"claude-3-5-sonnet-20241022": {
"description": "Claude 3.5 Sonnet 提供了超越 Opus 的能力和比 Sonnet 更快的速度,同時保持與 Sonnet 相同的價格。Sonnet 特別擅長編程、數據科學、視覺處理、代理任務。"
},
"claude-3-7-sonnet-20250219": {
"description": "Claude 3.7 Sonnet 提升了行業標準,性能超越競爭對手模型和 Claude 3 Opus,在廣泛的評估中表現出色,同時具備我們中等層級模型的速度和成本。"
},
"claude-3-haiku-20240307": {
"description": "Claude 3 Haiku 是 Anthropic 的最快且最緊湊的模型,旨在實現近乎即時的響應。它具有快速且準確的定向性能。"
},
"claude-3-opus-20240229": {
"description": "Claude 3 Opus 是 Anthropic 用於處理高度複雜任務的最強大模型。它在性能、智能、流暢性和理解力方面表現卓越。"
},
"claude-3-sonnet-20240229": {
"description": "Claude 3 Sonnet 在智能和速度方面為企業工作負載提供了理想的平衡。它以更低的價格提供最大效用,可靠且適合大規模部署。"
},
"claude-opus-4-20250514": {
"description": "Claude Opus 4 是 Anthropic 用於處理高度複雜任務的最強大模型。它在性能、智能、流暢性和理解力方面表現卓越。"
},
"claude-sonnet-4-20250514": {
"description": "Claude 4 Sonnet 可以產生近乎即時的回應或延長的逐步思考,使用者可以清晰地看到這些過程。API 使用者還可以對模型思考的時間進行細緻的控制"
},
"codegeex-4": {
"description": "CodeGeeX-4是一個強大的AI編程助手,支持多種編程語言的智能問答與代碼補全,提升開發效率。"
},
"codegeex4-all-9b": {
"description": "CodeGeeX4-ALL-9B 是一個多語言代碼生成模型,支持包括代碼補全和生成、代碼解釋器、網絡搜索、函數調用、倉庫級代碼問答在內的全面功能,覆蓋軟件開發的各種場景。是參數少於 10B 的頂尖代碼生成模型。"
},
"codegemma": {
"description": "CodeGemma 專用于不同編程任務的輕量級語言模型,支持快速迭代和集成。"
},
"codegemma:2b": {
"description": "CodeGemma 專用于不同編程任務的輕量級語言模型,支持快速迭代和集成。"
},
"codellama": {
"description": "Code Llama 是一款專注於代碼生成和討論的 LLM,結合廣泛的編程語言支持,適用於開發者環境。"
},
"codellama/CodeLlama-34b-Instruct-hf": {
"description": "Code Llama 是一款專注於代碼生成和討論的 LLM,結合廣泛的編程語言支持,適用於開發者環境。"
},
"codellama:13b": {
"description": "Code Llama 是一款專注於代碼生成和討論的 LLM,結合廣泛的編程語言支持,適用於開發者環境。"
},
"codellama:34b": {
"description": "Code Llama 是一款專注於代碼生成和討論的 LLM,結合廣泛的編程語言支持,適用於開發者環境。"
},
"codellama:70b": {
"description": "Code Llama 是一款專注於代碼生成和討論的 LLM,結合廣泛的編程語言支持,適用於開發者環境。"
},
"codeqwen": {
"description": "CodeQwen1.5 是基於大量代碼數據訓練的大型語言模型,專為解決複雜編程任務。"
},
"codestral": {
"description": "Codestral 是 Mistral AI 的首款代碼模型,為代碼生成任務提供優異支持。"
},
"codestral-latest": {
"description": "Codestral 是專注於代碼生成的尖端生成模型,優化了中間填充和代碼補全任務。"
},
"codex-mini-latest": {
"description": "codex-mini-latest 是 o4-mini 的微調版本,專門用於 Codex CLI。對於直接透過 API 使用,我們推薦從 gpt-4.1 開始。"
},
"cognitivecomputations/dolphin-mixtral-8x22b": {
"description": "Dolphin Mixtral 8x22B 是一款為指令遵循、對話和編程設計的模型。"
},
"cogview-4": {
"description": "CogView-4 是智譜首個支援生成漢字的開源文生圖模型,在語義理解、圖像生成質量、中英文字生成能力等方面全面提升,支援任意長度的中英雙語輸入,能夠生成在給定範圍內的任意解析度圖像。"
},
"cohere-command-r": {
"description": "Command R是一個可擴展的生成模型,針對RAG和工具使用,旨在為企業提供生產級AI。"
},
"cohere-command-r-plus": {
"description": "Command R+是一個最先進的RAG優化模型,旨在應對企業級工作負載。"
},
"cohere/Cohere-command-r": {
"description": "Command R 是一個可擴展的生成模型,旨在針對 RAG 和工具使用,使企業能夠實現生產級 AI。"
},
"cohere/Cohere-command-r-plus": {
"description": "Command R+ 是一個最先進的 RAG 優化模型,旨在應對企業級工作負載。"
},
"command": {
"description": "一個遵循指令的對話模型,在語言任務中表現出高質量、更可靠,並且相比我們的基礎生成模型具有更長的上下文長度。"
},
"command-a-03-2025": {
"description": "Command A 是我們迄今為止性能最強的模型,在工具使用、代理、檢索增強生成(RAG)和多語言應用場景方面表現出色。Command A 具有 256K 的上下文長度,僅需兩塊 GPU 即可運行,並且相比於 Command R+ 08-2024,吞吐量提高了 150%。"
},
"command-light": {
"description": "一個更小、更快的 Command 版本,幾乎同樣強大,但速度更快。"
},
"command-light-nightly": {
"description": "為了縮短主要版本發布之間的時間間隔,我們推出了 Command 模型的每夜版本。對於 command-light 系列,這一版本稱為 command-light-nightly。請注意,command-light-nightly 是最新、最具實驗性且(可能)不穩定的版本。每夜版本會定期更新,且不會提前通知,因此不建議在生產環境中使用。"
},
"command-nightly": {
"description": "為了縮短主要版本發布之間的時間間隔,我們推出了 Command 模型的每夜版本。對於 Command 系列,這一版本稱為 command-cightly。請注意,command-nightly 是最新、最具實驗性且(可能)不穩定的版本。每夜版本會定期更新,且不會提前通知,因此不建議在生產環境中使用。"
},
"command-r": {
"description": "Command R 是優化用於對話和長上下文任務的 LLM,特別適合動態交互與知識管理。"
},
"command-r-03-2024": {
"description": "Command R 是一個遵循指令的對話模型,在語言任務方面表現出更高的質量、更可靠,並且相比以往模型具有更長的上下文長度。它可用於複雜的工作流程,如代碼生成、檢索增強生成(RAG)、工具使用和代理。"
},
"command-r-08-2024": {
"description": "command-r-08-2024 是 Command R 模型的更新版本,於 2024 年 8 月發布。"
},
"command-r-plus": {
"description": "Command R+ 是一款高性能的大型語言模型,專為真實企業場景和複雜應用而設計。"
},
"command-r-plus-04-2024": {
"description": "Command R+ 是一個遵循指令的對話模型,在語言任務方面表現出更高的質量、更可靠,並且相比以往模型具有更長的上下文長度。它最適用於複雜的 RAG 工作流和多步工具使用。"
},
"command-r-plus-08-2024": {
"description": "Command R+ 是一個遵循指令的對話模型,在語言任務方面表現出更高的品質、更可靠,並且相比以往模型具有更長的上下文長度。它最適用於複雜的 RAG 工作流和多步工具使用。"
},
"command-r7b-12-2024": {
"description": "command-r7b-12-2024 是一個小型且高效的更新版本,於 2024 年 12 月發布。它在 RAG、工具使用、代理等需要複雜推理和多步處理的任務中表現出色。"
},
"compound-beta": {
"description": "Compound-beta 是一個複合 AI 系統,由 GroqCloud 中已經支持的多個開放可用的模型提供支持,可以智能地、有選擇地使用工具來回答用戶查詢。"
},
"compound-beta-mini": {
"description": "Compound-beta-mini 是一個複合 AI 系統,由 GroqCloud 中已經支持的公開可用模型提供支持,可以智能地、有選擇地使用工具來回答用戶查詢。"
},
"computer-use-preview": {
"description": "computer-use-preview 模型是專為「電腦使用工具」設計的專用模型,經過訓練以理解並執行電腦相關任務。"
},
"dall-e-2": {
"description": "第二代 DALL·E 模型,支持更真實、準確的圖像生成,解析度是第一代的4倍"
},
"dall-e-3": {
"description": "最新的 DALL·E 模型,於2023年11月發布。支持更真實、準確的圖像生成,具有更強的細節表現力"
},
"databricks/dbrx-instruct": {
"description": "DBRX Instruct 提供高可靠性的指令處理能力,支持多行業應用。"
},
"deepseek-ai/DeepSeek-R1": {
"description": "DeepSeek-R1 是一款強化學習(RL)驅動的推理模型,解決了模型中的重複性和可讀性問題。在 RL 之前,DeepSeek-R1 引入了冷啟動數據,進一步優化了推理性能。它在數學、程式碼和推理任務中與 OpenAI-o1 表現相當,並且通過精心設計的訓練方法,提升了整體效果。"
},
"deepseek-ai/DeepSeek-R1-0528": {
"description": "DeepSeek R1 透過利用增加的計算資源和在後訓練過程中引入演算法優化機制,顯著提高了其推理和推斷能力的深度。該模型在各種基準評估中表現出色,包括數學、程式設計和一般邏輯方面。其整體性能現已接近領先模型,如 O3 和 Gemini 2.5 Pro。"
},
"deepseek-ai/DeepSeek-R1-0528-Qwen3-8B": {
"description": "DeepSeek-R1-0528-Qwen3-8B 是透過從 DeepSeek-R1-0528 模型蒸餾思維鏈到 Qwen3 8B Base 獲得的模型。該模型在開源模型中達到了最先進(SOTA)的性能,在 AIME 2024 測試中超越了 Qwen3 8B 10%,並達到了 Qwen3-235B-thinking 的性能水準。該模型在數學推理、程式設計和通用邏輯等多個基準測試中表現出色,其架構與 Qwen3-8B 相同,但共享 DeepSeek-R1-0528 的分詞器配置。"
},
"deepseek-ai/DeepSeek-R1-Distill-Llama-70B": {
"description": "DeepSeek-R1 蒸餾模型,通過強化學習與冷啟動數據優化推理性能,開源模型刷新多任務標杆。"
},
"deepseek-ai/DeepSeek-R1-Distill-Qwen-1.5B": {
"description": "DeepSeek-R1 蒸餾模型,通過強化學習與冷啟動數據優化推理性能,開源模型刷新多任務標杆。"
},
"deepseek-ai/DeepSeek-R1-Distill-Qwen-14B": {
"description": "DeepSeek-R1 蒸餾模型,通過強化學習與冷啟動數據優化推理性能,開源模型刷新多任務標杆。"
},
"deepseek-ai/DeepSeek-R1-Distill-Qwen-32B": {
"description": "DeepSeek-R1-Distill-Qwen-32B 是基於 Qwen2.5-32B 通過知識蒸餾得到的模型。該模型使用 DeepSeek-R1 生成的 80 萬個精選樣本進行微調,在數學、編程和推理等多個領域展現出卓越的性能。在 AIME 2024、MATH-500、GPQA Diamond 等多個基準測試中都取得了優異成績,其中在 MATH-500 上達到了 94.3% 的準確率,展現出強大的數學推理能力。"
},
"deepseek-ai/DeepSeek-R1-Distill-Qwen-7B": {
"description": "DeepSeek-R1-Distill-Qwen-7B 是基於 Qwen2.5-Math-7B 通過知識蒸餾得到的模型。該模型使用 DeepSeek-R1 生成的 80 萬個精選樣本進行微調,展現出優秀的推理能力。在多個基準測試中表現出色,其中在 MATH-500 上達到了 92.8% 的準確率,在 AIME 2024 上達到了 55.5% 的通過率,在 CodeForces 上獲得了 1189 的評分,作為 7B 規模的模型展示了較強的數學和編程能力。"
},
"deepseek-ai/DeepSeek-V2.5": {
"description": "DeepSeek V2.5 集合了先前版本的優秀特徵,增強了通用和編碼能力。"
},
"deepseek-ai/DeepSeek-V3": {
"description": "DeepSeek-V3 是一款擁有 6710 億參數的混合專家(MoE)語言模型,採用多頭潛在注意力(MLA)和 DeepSeekMoE 架構,結合無輔助損失的負載平衡策略,優化推理和訓練效率。通過在 14.8 萬億高品質 tokens 上預訓練,並進行監督微調和強化學習,DeepSeek-V3 在性能上超越其他開源模型,接近領先閉源模型。"
},
"deepseek-ai/deepseek-llm-67b-chat": {
"description": "DeepSeek 67B 是為高複雜性對話訓練的先進模型。"
},
"deepseek-ai/deepseek-r1": {
"description": "最先進的高效 LLM,擅長推理、數學和編程。"
},
"deepseek-ai/deepseek-vl2": {
"description": "DeepSeek-VL2 是一個基於 DeepSeekMoE-27B 開發的混合專家(MoE)視覺語言模型,採用稀疏激活的 MoE 架構,在僅激活 4.5B 參數的情況下實現了卓越性能。該模型在視覺問答、光學字符識別、文檔/表格/圖表理解和視覺定位等多個任務中表現優異。"
},
"deepseek-chat": {
"description": "融合通用與代碼能力的全新開源模型,不僅保留了原有 Chat 模型的通用對話能力和 Coder 模型的強大代碼處理能力,還更好地對齊了人類偏好。此外,DeepSeek-V2.5 在寫作任務、指令跟隨等多個方面也實現了大幅提升。"
},
"deepseek-coder-33B-instruct": {
"description": "DeepSeek Coder 33B 是一個代碼語言模型,基於 2 萬億數據訓練而成,其中 87% 為代碼,13% 為中英文語言。模型引入 16K 窗口大小和填空任務,提供項目級別的代碼補全和片段填充功能。"
},
"deepseek-coder-v2": {
"description": "DeepSeek Coder V2 是開源的混合專家代碼模型,在代碼任務方面表現優異,與 GPT4-Turbo 相媲美。"
},
"deepseek-coder-v2:236b": {
"description": "DeepSeek Coder V2 是開源的混合專家代碼模型,在代碼任務方面表現優異,與 GPT4-Turbo 相媲美。"
},
"deepseek-r1": {
"description": "DeepSeek-R1 是一款強化學習(RL)驅動的推理模型,解決了模型中的重複性和可讀性問題。在 RL 之前,DeepSeek-R1 引入了冷啟動數據,進一步優化了推理性能。它在數學、程式碼和推理任務中與 OpenAI-o1 表現相當,並且通過精心設計的訓練方法,提升了整體效果。"
},
"deepseek-r1-0528": {
"description": "685B 滿血版模型,2025年5月28日發布。DeepSeek-R1 在後訓練階段大規模使用了強化學習技術,在僅有極少標註資料的情況下,大幅提升了模型推理能力。在數學、程式碼、自然語言推理等任務上,性能較高,能力較強。"
},
"deepseek-r1-70b-fast-online": {
"description": "DeepSeek R1 70B 快速版,支持即時聯網搜索,在保持模型性能的同時提供更快的響應速度。"
},
"deepseek-r1-70b-online": {
"description": "DeepSeek R1 70B 標準版,支持即時聯網搜索,適合需要最新信息的對話和文本處理任務。"
},
"deepseek-r1-distill-llama": {
"description": "deepseek-r1-distill-llama 是基於 Llama 從 DeepSeek-R1 蒸餾而來的模型。"
},
"deepseek-r1-distill-llama-70b": {
"description": "DeepSeek R1——DeepSeek 套件中更大更智能的模型——被蒸餾到 Llama 70B 架構中。基於基準測試和人工評估,該模型比原始 Llama 70B 更智能,尤其在需要數學和事實精確性的任務上表現出色。"
},
"deepseek-r1-distill-llama-8b": {
"description": "DeepSeek-R1-Distill 系列模型透過知識蒸餾技術,將 DeepSeek-R1 生成的樣本對 Qwen、Llama 等開源模型進行微調後得到。"
},
"deepseek-r1-distill-qianfan-llama-70b": {
"description": "2025年2月14日首次發布,由千帆大模型研發團隊以 Llama3_70B為base模型(Built with Meta Llama)蒸餾所得,蒸餾數據中也同步添加了千帆的語料。"
},
"deepseek-r1-distill-qianfan-llama-8b": {
"description": "2025年2月14日首次發布,由千帆大模型研發團隊以 Llama3_8B為base模型(Built with Meta Llama)蒸餾所得,蒸餾數據中也同步添加了千帆的語料。"
},
"deepseek-r1-distill-qwen": {
"description": "deepseek-r1-distill-qwen 是基於 Qwen 從 DeepSeek-R1 蒸餾而來的模型。"
},
"deepseek-r1-distill-qwen-1.5b": {
"description": "DeepSeek-R1-Distill 系列模型透過知識蒸餾技術,將 DeepSeek-R1 生成的樣本對 Qwen、Llama 等開源模型進行微調後得到。"
},
"deepseek-r1-distill-qwen-14b": {
"description": "DeepSeek-R1-Distill 系列模型透過知識蒸餾技術,將 DeepSeek-R1 生成的樣本對 Qwen、Llama 等開源模型進行微調後得到。"
},
"deepseek-r1-distill-qwen-32b": {
"description": "DeepSeek-R1-Distill 系列模型透過知識蒸餾技術,將 DeepSeek-R1 生成的樣本對 Qwen、Llama 等開源模型進行微調後得到。"
},
"deepseek-r1-distill-qwen-7b": {
"description": "DeepSeek-R1-Distill 系列模型透過知識蒸餾技術,將 DeepSeek-R1 生成的樣本對 Qwen、Llama 等開源模型進行微調後得到。"
},
"deepseek-r1-fast-online": {
"description": "DeepSeek R1 滿血快速版,支持即時聯網搜索,結合了 671B 參數的強大能力和更快的響應速度。"
},
"deepseek-r1-online": {
"description": "DeepSeek R1 滿血版,擁有 671B 參數,支持即時聯網搜索,具有更強大的理解和生成能力。"
},
"deepseek-reasoner": {
"description": "DeepSeek 推出的推理模型。在輸出最終回答之前,模型會先輸出一段思維鏈內容,以提升最終答案的準確性。"
},
"deepseek-v2": {
"description": "DeepSeek V2 是高效的 Mixture-of-Experts 語言模型,適用於經濟高效的處理需求。"
},
"deepseek-v2:236b": {
"description": "DeepSeek V2 236B 是 DeepSeek 的設計代碼模型,提供強大的代碼生成能力。"
},
"deepseek-v3": {
"description": "DeepSeek-V3 為杭州深度求索人工智能基礎技術研究有限公司自研的 MoE 模型,其多項評測成績突出,在主流榜單中位列開源模型榜首。V3 相較 V2.5 模型生成速度實現 3 倍提升,為用戶帶來更加迅速流暢的使用體驗。"
},
"deepseek-v3-0324": {
"description": "DeepSeek-V3-0324 為 671B 參數的 MoE 模型,在程式設計與技術能力、上下文理解與長文本處理等方面優勢突出。"
},
"deepseek/deepseek-chat-v3-0324": {
"description": "DeepSeek V3 是一個 685B 參數的專家混合模型,是 DeepSeek 團隊旗艦聊天模型系列的最新迭代。\n\n它繼承了 [DeepSeek V3](/deepseek/deepseek-chat-v3) 模型,並在各種任務上表現出色。"
},
"deepseek/deepseek-chat-v3-0324:free": {
"description": "DeepSeek V3 是一個 685B 參數的專家混合模型,是 DeepSeek 團隊旗艦聊天模型系列的最新迭代。\n\n它繼承了 [DeepSeek V3](/deepseek/deepseek-chat-v3) 模型,並在各種任務上表現出色。"
},
"deepseek/deepseek-r1": {
"description": "DeepSeek-R1 在僅有極少標註數據的情況下,極大提升了模型推理能力。在輸出最終回答之前,模型會先輸出一段思維鏈內容,以提升最終答案的準確性。"
},
"deepseek/deepseek-r1-0528": {
"description": "DeepSeek-R1 在僅有極少標註資料的情況下,極大提升了模型推理能力。在輸出最終回答之前,模型會先輸出一段思維鏈內容,以提升最終答案的準確性。"
},
"deepseek/deepseek-r1-0528:free": {
"description": "DeepSeek-R1 在僅有極少標註資料的情況下,極大提升了模型推理能力。在輸出最終回答之前,模型會先輸出一段思維鏈內容,以提升最終答案的準確性。"
},
"deepseek/deepseek-r1-distill-llama-70b": {
"description": "DeepSeek R1 Distill Llama 70B是基於Llama3.3 70B的大型語言模型,該模型利用DeepSeek R1輸出的微調,實現了與大型前沿模型相當的競爭性能。"
},
"deepseek/deepseek-r1-distill-llama-8b": {
"description": "DeepSeek R1 Distill Llama 8B是一種基於Llama-3.1-8B-Instruct的蒸餾大語言模型,通過使用DeepSeek R1的輸出進行訓練而得。"
},
"deepseek/deepseek-r1-distill-qwen-14b": {
"description": "DeepSeek R1 Distill Qwen 14B是一種基於Qwen 2.5 14B的蒸餾大語言模型,通過使用DeepSeek R1的輸出進行訓練而得。該模型在多個基準測試中超越了OpenAI的o1-mini,取得了密集模型(dense models)的最新技術領先成果(state-of-the-art)。以下是一些基準測試的結果:\nAIME 2024 pass@1: 69.7\nMATH-500 pass@1: 93.9\nCodeForces Rating: 1481\n該模型通過從DeepSeek R1的輸出中進行微調,展現了與更大規模的前沿模型相當的競爭性能。"
},
"deepseek/deepseek-r1-distill-qwen-32b": {
"description": "DeepSeek R1 Distill Qwen 32B是一種基於Qwen 2.5 32B的蒸餾大語言模型,通過使用DeepSeek R1的輸出進行訓練而得。該模型在多個基準測試中超越了OpenAI的o1-mini,取得了密集模型(dense models)的最新技術領先成果(state-of-the-art)。以下是一些基準測試的結果:\nAIME 2024 pass@1: 72.6\nMATH-500 pass@1: 94.3\nCodeForces Rating: 1691\n該模型通過從DeepSeek R1的輸出中進行微調,展現了與更大規模的前沿模型相當的競爭性能。"
},
"deepseek/deepseek-r1/community": {
"description": "DeepSeek R1是DeepSeek團隊發布的最新開源模型,具備非常強悍的推理性能,尤其在數學、編程和推理任務上達到了與OpenAI的o1模型相當的水平。"
},
"deepseek/deepseek-r1:free": {
"description": "DeepSeek-R1 在僅有極少標註數據的情況下,極大提升了模型推理能力。在輸出最終回答之前,模型會先輸出一段思維鏈內容,以提升最終答案的準確性。"
},
"deepseek/deepseek-v3": {
"description": "DeepSeek-V3在推理速度方面實現了比之前模型的重大突破。在開源模型中排名第一,並可與全球最先進的閉源模型相媲美。DeepSeek-V3 采用了多頭潛在注意力(MLA)和DeepSeekMoE架構,這些架構在DeepSeek-V2中得到了全面驗證。此外,DeepSeek-V3開創了一種用於負載均衡的輔助無損策略,並設定了多標記預測訓練目標以獲得更強的性能。"
},
"deepseek/deepseek-v3/community": {
"description": "DeepSeek-V3在推理速度方面實現了比之前模型的重大突破。在開源模型中排名第一,並可與全球最先進的閉源模型相媲美。DeepSeek-V3 采用了多頭潛在注意力(MLA)和DeepSeekMoE架構,這些架構在DeepSeek-V2中得到了全面驗證。此外,DeepSeek-V3開創了一種用於負載均衡的輔助無損策略,並設定了多標記預測訓練目標以獲得更強的性能。"
},
"deepseek_r1": {
"description": "DeepSeek-R1 是一款強化學習(RL)驅動的推理模型,解決了模型中的重複性和可讀性問題。在 RL 之前,DeepSeek-R1 引入了冷啟動數據,進一步優化了推理性能。它在數學、程式碼和推理任務中與 OpenAI-o1 表現相當,並且通過精心設計的訓練方法,提升了整體效果。"
},
"deepseek_r1_distill_llama_70b": {
"description": "DeepSeek-R1-Distill-Llama-70B 是基於 Llama-3.3-70B-Instruct 經過蒸餾訓練得到的模型。該模型是 DeepSeek-R1 系列的一部分,通過使用 DeepSeek-R1 生成的樣本進行微調,在數學、程式設計和推理等多個領域展現出優秀的性能。"
},
"deepseek_r1_distill_qwen_14b": {
"description": "DeepSeek-R1-Distill-Qwen-14B 是基於 Qwen2.5-14B 通過知識蒸餾得到的模型。該模型使用 DeepSeek-R1 生成的 80 萬個精選樣本進行微調,展現出優秀的推理能力。"
},
"deepseek_r1_distill_qwen_32b": {
"description": "DeepSeek-R1-Distill-Qwen-32B 是基於 Qwen2.5-32B 通過知識蒸餾得到的模型。該模型使用 DeepSeek-R1 生成的 80 萬個精選樣本進行微調,在數學、程式設計和推理等多個領域展現出卓越的性能。"
},
"doubao-1.5-lite-32k": {
"description": "Doubao-1.5-lite 全新一代輕量版模型,極致響應速度,效果與時延均達到全球一流水平。"
},
"doubao-1.5-pro-256k": {
"description": "Doubao-1.5-pro-256k 基於 Doubao-1.5-Pro 全面升級版,整體效果大幅提升 10%。支持 256k 上下文窗口的推理,輸出長度支持最大 12k tokens。更高性能、更大窗口、超高性價比,適用於更廣泛的應用場景。"
},
"doubao-1.5-pro-32k": {
"description": "Doubao-1.5-pro 全新一代主力模型,性能全面升級,在知識、程式碼、推理等方面表現卓越。"
},
"doubao-1.5-thinking-pro": {
"description": "Doubao-1.5全新深度思考模型,在數學、程式設計、科學推理等專業領域及創意寫作等通用任務中表現突出,在AIME 2024、Codeforces、GPQA等多項權威基準上達到或接近業界第一梯隊水平。支持128k上下文窗口,16k輸出。"
},
"doubao-1.5-thinking-pro-m": {
"description": "Doubao-1.5全新深度思考模型(m 版本自帶原生多模態深度推理能力),在數學、程式設計、科學推理等專業領域及創意寫作等通用任務中表現突出,在AIME 2024、Codeforces、GPQA等多項權威基準上達到或接近業界第一梯隊水準。支持128k上下文視窗,16k輸出。"
},
"doubao-1.5-thinking-vision-pro": {
"description": "全新視覺深度思考模型,具備更強的通用多模態理解和推理能力,在59個公開評測基準中的37個上取得SOTA表現。"
},
"doubao-1.5-ui-tars": {
"description": "Doubao-1.5-UI-TARS 是一款原生面向圖形介面互動(GUI)的Agent模型。透過感知、推理和行動等類人能力,與 GUI 進行無縫互動。"
},
"doubao-1.5-vision-lite": {
"description": "Doubao-1.5-vision-lite 全新升級的多模態大模型,支持任意解析度和極端長寬比圖像識別,增強視覺推理、文檔識別、細節信息理解和指令遵循能力。支持 128k 上下文窗口,輸出長度支持最大 16k tokens。"
},
"doubao-1.5-vision-pro": {
"description": "Doubao-1.5-vision-pro 全新升級的多模態大模型,支持任意解析度和極端長寬比影像識別,增強視覺推理、文件識別、細節資訊理解和指令遵循能力。"
},
"doubao-1.5-vision-pro-32k": {
"description": "Doubao-1.5-vision-pro 全新升級的多模態大模型,支持任意解析度和極端長寬比影像識別,增強視覺推理、文件識別、細節資訊理解和指令遵循能力。"
},
"doubao-lite-128k": {
"description": "擁有極致的響應速度,更好的性價比,為客戶不同場景提供更靈活的選擇。支持128k上下文視窗的推理和精調。"
},
"doubao-lite-32k": {
"description": "擁有極致的響應速度,更好的性價比,為客戶不同場景提供更靈活的選擇。支持32k上下文視窗的推理和精調。"
},
"doubao-lite-4k": {
"description": "擁有極致的響應速度,更好的性價比,為客戶不同場景提供更靈活的選擇。支持4k上下文視窗的推理和精調。"
},
"doubao-pro-256k": {
"description": "效果最好的主力模型,適合處理複雜任務,在參考問答、總結摘要、創作、文本分類、角色扮演等場景都有很好的效果。支持256k上下文視窗的推理和精調。"
},
"doubao-pro-32k": {
"description": "效果最好的主力模型,適合處理複雜任務,在參考問答、總結摘要、創作、文本分類、角色扮演等場景都有很好的效果。支持32k上下文視窗的推理和精調。"
},
"doubao-seed-1.6": {
"description": "Doubao-Seed-1.6 全新多模態深度思考模型,同時支援 auto/thinking/non-thinking 三種思考模式。non-thinking 模式下,模型效果相較 Doubao-1.5-pro/250115 大幅提升。支援 256k 上下文視窗,輸出長度支援最大 16k tokens。"
},
"doubao-seed-1.6-flash": {
"description": "Doubao-Seed-1.6-flash 推理速度極致的多模態深度思考模型,TPOT 僅需 10ms;同時支援文本和視覺理解,文本理解能力超越上一代 lite,視覺理解媲美友商 pro 系列模型。支援 256k 上下文視窗,輸出長度支援最大 16k tokens。"
},
"doubao-seed-1.6-thinking": {
"description": "Doubao-Seed-1.6-thinking 模型思考能力大幅強化,相較 Doubao-1.5-thinking-pro,在 Coding、Math、邏輯推理等基礎能力上進一步提升,支援視覺理解。支援 256k 上下文視窗,輸出長度支援最大 16k tokens。"
},
"doubao-vision-lite-32k": {
"description": "Doubao-vision 模型是豆包推出的多模態大模型,具備強大的圖片理解與推理能力,以及精準的指令理解能力。模型在影像文本資訊擷取、基於影像的推理任務上展現出強大的性能,能夠應用於更複雜、更廣泛的視覺問答任務。"
},
"doubao-vision-pro-32k": {
"description": "Doubao-vision 模型是豆包推出的多模態大模型,具備強大的圖片理解與推理能力,以及精準的指令理解能力。模型在影像文本資訊擷取、基於影像的推理任務上展現出強大的性能,能夠應用於更複雜、更廣泛的視覺問答任務。"
},
"emohaa": {
"description": "Emohaa是一個心理模型,具備專業諮詢能力,幫助用戶理解情感問題。"
},
"ernie-3.5-128k": {
"description": "百度自研的旗艦級大規模大語言模型,覆蓋海量中英文語料,具有強大的通用能力,可滿足絕大部分對話問答、創作生成、插件應用場景要求;支持自動對接百度搜索插件,保障問答信息時效。"
},
"ernie-3.5-8k": {
"description": "百度自研的旗艦級大規模大語言模型,覆蓋海量中英文語料,具有強大的通用能力,可滿足絕大部分對話問答、創作生成、插件應用場景要求;支持自動對接百度搜索插件,保障問答信息時效。"
},
"ernie-3.5-8k-preview": {
"description": "百度自研的旗艦級大規模大語言模型,覆蓋海量中英文語料,具有強大的通用能力,可滿足絕大部分對話問答、創作生成、插件應用場景要求;支持自動對接百度搜索插件,保障問答信息時效。"
},
"ernie-4.0-8k-latest": {
"description": "百度自研的旗艦級超大規模大語言模型,相較ERNIE 3.5實現了模型能力全面升級,廣泛適用於各領域複雜任務場景;支持自動對接百度搜索插件,保障問答信息時效。"
},
"ernie-4.0-8k-preview": {
"description": "百度自研的旗艦級超大規模大語言模型,相較ERNIE 3.5實現了模型能力全面升級,廣泛適用於各領域複雜任務場景;支持自動對接百度搜索插件,保障問答信息時效。"
},
"ernie-4.0-turbo-128k": {
"description": "百度自研的旗艦級超大規模大語言模型,綜合效果表現出色,廣泛適用於各領域複雜任務場景;支持自動對接百度搜索插件,保障問答信息時效。相較於ERNIE 4.0在性能表現上更優秀"
},
"ernie-4.0-turbo-8k-latest": {
"description": "百度自研的旗艦級超大規模大語言模型,綜合效果表現出色,廣泛適用於各領域複雜任務場景;支持自動對接百度搜索插件,保障問答信息時效。相較於ERNIE 4.0在性能表現上更優秀"
},
"ernie-4.0-turbo-8k-preview": {
"description": "百度自研的旗艦級超大規模大語言模型,綜合效果表現出色,廣泛適用於各領域複雜任務場景;支持自動對接百度搜索插件,保障問答信息時效。相較於ERNIE 4.0在性能表現上更優秀"
},
"ernie-4.5-8k-preview": {
"description": "文心大模型4.5是百度自主研發的新一代原生多模態基礎大模型,通過多個模態聯合建模實現協同優化,多模態理解能力優秀;具備更精進的語言能力,理解、生成、邏輯、記憶能力全面提升,去幻覺、邏輯推理、代碼能力顯著提升。"
},
"ernie-4.5-turbo-128k": {
"description": "文心4.5 Turbo在去幻覺、邏輯推理和程式碼能力等方面也有著明顯增強。對比文心4.5,速度更快、價格更低。模型能力全面提升,更好滿足多輪長歷史對話處理、長文檔理解問答任務。"
},
"ernie-4.5-turbo-32k": {
"description": "文心4.5 Turbo在去幻覺、邏輯推理和程式碼能力等方面也有著明顯增強。對比文心4.5,速度更快、價格更低。文本創作、知識問答等能力提升顯著。輸出長度及整句時延相較ERNIE 4.5有所增加。"
},
"ernie-4.5-turbo-vl-32k": {
"description": "文心一言大模型全新版本,圖片理解、創作、翻譯、程式碼等能力顯著提升,首次支持32K上下文長度,首Token時延顯著降低。"
},
"ernie-char-8k": {
"description": "百度自研的垂直場景大語言模型,適合遊戲NPC、客服對話、對話角色扮演等應用場景,人設風格更為鮮明、一致,指令遵循能力更強,推理性能更優。"
},
"ernie-char-fiction-8k": {
"description": "百度自研的垂直場景大語言模型,適合遊戲NPC、客服對話、對話角色扮演等應用場景,人設風格更為鮮明、一致,指令遵循能力更強,推理性能更優。"
},
"ernie-lite-8k": {
"description": "ERNIE Lite是百度自研的輕量級大語言模型,兼顧優異的模型效果與推理性能,適合低算力AI加速卡推理使用。"
},
"ernie-lite-pro-128k": {
"description": "百度自研的輕量級大語言模型,兼顧優異的模型效果與推理性能,效果比ERNIE Lite更優,適合低算力AI加速卡推理使用。"
},
"ernie-novel-8k": {
"description": "百度自研通用大語言模型,在小說續寫能力上有明顯優勢,也可用在短劇、電影等場景。"
},
"ernie-speed-128k": {
"description": "百度2024年最新發布的自研高性能大語言模型,通用能力優異,適合作為基座模型進行精調,更好地處理特定場景問題,同時具備極佳的推理性能。"
},
"ernie-speed-pro-128k": {
"description": "百度2024年最新發布的自研高性能大語言模型,通用能力優異,效果比ERNIE Speed更優,適合作為基座模型進行精調,更好地處理特定場景問題,同時具備極佳的推理性能。"
},
"ernie-tiny-8k": {
"description": "ERNIE Tiny是百度自研的超高性能大語言模型,部署與精調成本在文心系列模型中最低。"
},
"ernie-x1-32k": {
"description": "具備更強的理解、規劃、反思、進化能力。作為能力更全面的深度思考模型,文心X1兼具準確、創意和文采,在中文知識問答、文學創作、文稿寫作、日常對話、邏輯推理、複雜計算及工具調用等方面表現尤為出色。"
},
"ernie-x1-32k-preview": {
"description": "文心大模型X1具備更強的理解、規劃、反思、進化能力。作為能力更全面的深度思考模型,文心X1兼具準確、創意和文采,在中文知識問答、文學創作、文稿寫作、日常對話、邏輯推理、複雜計算及工具調用等方面表現尤為出色。"
},
"ernie-x1-turbo-32k": {
"description": "與ERNIE-X1-32K相比,模型效果和性能更佳。"
},
"flux-kontext/dev": {
"description": "Frontier 影像編輯模型。"
},
"flux-pro/kontext": {
"description": "FLUX.1 Kontext [pro] 能夠處理文字和參考圖像作為輸入,無縫實現目標性的局部編輯和複雜的整體場景變換。"
},
"flux/schnell": {
"description": "FLUX.1 [schnell] 是一個擁有120億參數的流式轉換器模型,能夠在1到4步內從文字生成高品質圖像,適合個人和商業用途。"
},
"gemini-1.0-pro-001": {
"description": "Gemini 1.0 Pro 001 (Tuning) 提供穩定並可調優的性能,是複雜任務解決方案的理想選擇。"
},
"gemini-1.0-pro-002": {
"description": "Gemini 1.0 Pro 002 (Tuning) 提供出色的多模態支持,專注於複雜任務的有效解決。"
},
"gemini-1.0-pro-latest": {
"description": "Gemini 1.0 Pro 是 Google 的高性能 AI 模型,專為廣泛任務擴展而設計。"
},
"gemini-1.5-flash-001": {
"description": "Gemini 1.5 Flash 001 是一款高效的多模態模型,支持廣泛應用的擴展。"
},
"gemini-1.5-flash-002": {
"description": "Gemini 1.5 Flash 002 是一款高效的多模態模型,支持廣泛應用的擴展。"
},
"gemini-1.5-flash-8b": {
"description": "Gemini 1.5 Flash 8B 是一款高效的多模態模型,支持廣泛應用的擴展。"
},
"gemini-1.5-flash-8b-exp-0924": {
"description": "Gemini 1.5 Flash 8B 0924 是最新的實驗性模型,在文本和多模態用例中都有顯著的性能提升。"
},
"gemini-1.5-flash-8b-latest": {
"description": "Gemini 1.5 Flash 8B 是一款高效的多模態模型,支援廣泛應用的擴展。"
},
"gemini-1.5-flash-exp-0827": {
"description": "Gemini 1.5 Flash 0827 提供了優化後的多模態處理能力,適用多種複雜任務場景。"
},
"gemini-1.5-flash-latest": {
"description": "Gemini 1.5 Flash 是 Google 最新的多模態 AI 模型,具備快速處理能力,支持文本、圖像和視頻輸入,適用於多種任務的高效擴展。"
},
"gemini-1.5-pro-001": {
"description": "Gemini 1.5 Pro 001 是可擴展的多模態 AI 解決方案,支持廣泛的複雜任務。"
},
"gemini-1.5-pro-002": {
"description": "Gemini 1.5 Pro 002 是最新的生產就緒模型,提供更高品質的輸出,特別在數學、長上下文和視覺任務方面有顯著提升。"
},
"gemini-1.5-pro-exp-0801": {
"description": "Gemini 1.5 Pro 0801 提供出色的多模態處理能力,為應用開發帶來更大靈活性。"
},
"gemini-1.5-pro-exp-0827": {
"description": "Gemini 1.5 Pro 0827 結合最新優化技術,帶來更高效的多模態數據處理能力。"
},
"gemini-1.5-pro-latest": {
"description": "Gemini 1.5 Pro 支持高達 200 萬個 tokens,是中型多模態模型的理想選擇,適用於複雜任務的多方面支持。"
},
"gemini-2.0-flash": {
"description": "Gemini 2.0 Flash 提供下一代功能和改進,包括卓越的速度、原生工具使用、多模態生成和1M令牌上下文窗口。"
},
"gemini-2.0-flash-001": {
"description": "Gemini 2.0 Flash 提供下一代功能和改進,包括卓越的速度、原生工具使用、多模態生成和1M令牌上下文窗口。"
},
"gemini-2.0-flash-exp": {
"description": "Gemini 2.0 Flash 模型變體,針對成本效益和低延遲等目標進行了優化。"
},
"gemini-2.0-flash-exp-image-generation": {
"description": "Gemini 2.0 Flash 實驗模型,支持圖像生成"
},
"gemini-2.0-flash-lite": {
"