UNPKG

@lobehub/chat

Version:

Lobe Chat - an open-source, high-performance chatbot framework that supports speech synthesis, multimodal, and extensible Function Call plugin system. Supports one-click free deployment of your private ChatGPT/LLM web application.

795 lines 368 kB
{ "01-ai/yi-1.5-34b-chat": { "description": "零一万物、最新のオープンソース微調整モデル、340億パラメータ、微調整は多様な対話シーンをサポートし、高品質なトレーニングデータで人間の好みに合わせています。" }, "01-ai/yi-1.5-9b-chat": { "description": "零一万物、最新のオープンソース微調整モデル、90億パラメータ、微調整は多様な対話シーンをサポートし、高品質なトレーニングデータで人間の好みに合わせています。" }, "360/deepseek-r1": { "description": "【360デプロイ版】DeepSeek-R1は、後訓練段階で大規模に強化学習技術を使用し、わずかなラベル付きデータでモデルの推論能力を大幅に向上させました。数学、コード、自然言語推論などのタスクで、OpenAI o1正式版に匹敵する性能を持っています。" }, "360gpt-pro": { "description": "360GPT Proは360 AIモデルシリーズの重要なメンバーであり、高効率なテキスト処理能力を持ち、多様な自然言語アプリケーションシーンに対応し、長文理解や多輪対話などの機能をサポートします。" }, "360gpt-pro-trans": { "description": "翻訳専用モデルで、深く微調整されており、翻訳効果が優れています。" }, "360gpt-turbo": { "description": "360GPT Turboは強力な計算と対話能力を提供し、優れた意味理解と生成効率を備え、企業や開発者にとって理想的なインテリジェントアシスタントソリューションです。" }, "360gpt-turbo-responsibility-8k": { "description": "360GPT Turbo Responsibility 8Kは意味の安全性と責任指向を強調し、コンテンツの安全性に高い要求を持つアプリケーションシーンのために設計されており、ユーザー体験の正確性と堅牢性を確保します。" }, "360gpt2-o1": { "description": "360gpt2-o1は、ツリーサーチを使用して思考の連鎖を構築し、反省メカニズムを導入し、強化学習で訓練されたモデルであり、自己反省と誤り訂正の能力を備えています。" }, "360gpt2-pro": { "description": "360GPT2 Proは360社が発表した高級自然言語処理モデルで、卓越したテキスト生成と理解能力を備え、特に生成と創作の分野で優れたパフォーマンスを発揮し、複雑な言語変換や役割演技タスクを処理できます。" }, "360zhinao2-o1": { "description": "360zhinao2-o1は、木探索を使用して思考の連鎖を構築し、反省メカニズムを導入し、強化学習で訓練され、自己反省と誤り訂正の能力を備えています。" }, "4.0Ultra": { "description": "Spark4.0 Ultraは星火大モデルシリーズの中で最も強力なバージョンで、ネットワーク検索のリンクをアップグレードし、テキストコンテンツの理解と要約能力を向上させています。これは、オフィスの生産性を向上させ、要求に正確に応えるための全方位のソリューションであり、業界をリードするインテリジェントな製品です。" }, "AnimeSharp": { "description": "AnimeSharp(別名「4x‑AnimeSharp」)は、Kim2091がESRGANアーキテクチャを基に開発したオープンソースの超解像モデルで、アニメスタイルの画像の拡大とシャープ化に特化しています。2022年2月に「4x-TextSharpV1」から改名され、元々は文字画像にも対応していましたが、アニメコンテンツ向けに大幅に性能が最適化されています。" }, "Baichuan2-Turbo": { "description": "検索強化技術を採用し、大モデルと分野知識、全網知識の全面的なリンクを実現しています。PDF、Wordなどのさまざまな文書のアップロードやURL入力をサポートし、情報取得が迅速かつ包括的で、出力結果は正確かつ専門的です。" }, "Baichuan3-Turbo": { "description": "企業の高頻度シーンに最適化され、効果が大幅に向上し、高コストパフォーマンスを実現しています。Baichuan2モデルに対して、コンテンツ生成が20%、知識問答が17%、役割演技能力が40%向上しています。全体的な効果はGPT3.5よりも優れています。" }, "Baichuan3-Turbo-128k": { "description": "128Kの超長コンテキストウィンドウを備え、企業の高頻度シーンに最適化され、効果が大幅に向上し、高コストパフォーマンスを実現しています。Baichuan2モデルに対して、コンテンツ生成が20%、知識問答が17%、役割演技能力が40%向上しています。全体的な効果はGPT3.5よりも優れています。" }, "Baichuan4": { "description": "モデル能力は国内でトップであり、知識百科、長文、生成創作などの中国語タスクで海外の主流モデルを超えています。また、業界をリードするマルチモーダル能力を備え、複数の権威ある評価基準で優れたパフォーマンスを示しています。" }, "Baichuan4-Air": { "description": "モデル能力は国内で第一であり、知識百科、長文、生成創作などの中国語タスクで海外の主流モデルを超えています。また、業界をリードするマルチモーダル能力を持ち、多くの権威ある評価基準で優れたパフォーマンスを示しています。" }, "Baichuan4-Turbo": { "description": "モデル能力は国内で第一であり、知識百科、長文、生成創作などの中国語タスクで海外の主流モデルを超えています。また、業界をリードするマルチモーダル能力を持ち、多くの権威ある評価基準で優れたパフォーマンスを示しています。" }, "ByteDance-Seed/Seed-OSS-36B-Instruct": { "description": "Seed-OSSは、ByteDanceのSeedチームによって開発された一連のオープンソース大型言語モデルであり、強力な長文コンテキスト処理、推論、エージェント(agent)、および汎用能力に特化して設計されています。このシリーズのSeed-OSS-36B-Instructは360億パラメータを持つ指示微調整モデルで、超長コンテキスト長をネイティブにサポートし、大量のドキュメントや複雑なコードベースを一度に処理可能です。このモデルは推論、コード生成、エージェントタスク(ツール使用など)に特化して最適化されており、バランスの取れた優れた汎用能力を維持しています。特徴の一つに「思考予算(Thinking Budget)」機能があり、ユーザーが必要に応じて推論長を柔軟に調整でき、実際の応用で推論効率を効果的に向上させます。" }, "DeepSeek-R1": { "description": "最先端の効率的なLLMで、推論、数学、プログラミングに優れています。" }, "DeepSeek-R1-Distill-Llama-70B": { "description": "DeepSeek R1——DeepSeekスイートの中でより大きく、より賢いモデル——がLlama 70Bアーキテクチャに蒸留されました。ベンチマークテストと人間の評価に基づき、このモデルは元のLlama 70Bよりも賢く、特に数学と事実の正確性が求められるタスクで優れた性能を発揮します。" }, "DeepSeek-R1-Distill-Qwen-1.5B": { "description": "Qwen2.5-Math-1.5Bに基づくDeepSeek-R1蒸留モデルで、強化学習とコールドスタートデータを通じて推論性能を最適化し、オープンソースモデルがマルチタスクの基準を刷新しました。" }, "DeepSeek-R1-Distill-Qwen-14B": { "description": "Qwen2.5-14Bに基づくDeepSeek-R1蒸留モデルで、強化学習とコールドスタートデータを通じて推論性能を最適化し、オープンソースモデルがマルチタスクの基準を刷新しました。" }, "DeepSeek-R1-Distill-Qwen-32B": { "description": "DeepSeek-R1シリーズは、強化学習とコールドスタートデータを通じて推論性能を最適化し、オープンソースモデルがマルチタスクの基準を刷新し、OpenAI-o1-miniのレベルを超えました。" }, "DeepSeek-R1-Distill-Qwen-7B": { "description": "Qwen2.5-Math-7Bに基づくDeepSeek-R1蒸留モデルで、強化学習とコールドスタートデータを通じて推論性能を最適化し、オープンソースモデルがマルチタスクの基準を刷新しました。" }, "DeepSeek-V3": { "description": "DeepSeek-V3は、深度求索社が独自に開発したMoEモデルです。DeepSeek-V3は、Qwen2.5-72BやLlama-3.1-405Bなどの他のオープンソースモデルを超える評価成績を収め、性能面では世界トップクラスのクローズドソースモデルであるGPT-4oやClaude-3.5-Sonnetと肩を並べています。" }, "DeepSeek-V3-1": { "description": "DeepSeek V3.1:次世代の推論モデルで、複雑な推論と連鎖的思考能力を向上させ、深い分析が必要なタスクに適しています。" }, "DeepSeek-V3-Fast": { "description": "モデル提供元:sophnetプラットフォーム。DeepSeek V3 FastはDeepSeek V3 0324バージョンの高TPS高速版で、フルパワーの非量子化モデルです。コードと数学能力が強化され、応答速度がさらに速くなっています!" }, "DeepSeek-V3.1": { "description": "DeepSeek-V3.1-非思考モード;DeepSeek-V3.1は深度探索が新たにリリースしたハイブリッド推論モデルで、思考モードと非思考モードの2つの推論モードをサポートし、DeepSeek-R1-0528よりも思考効率が向上しています。ポストトレーニング最適化により、エージェントのツール使用とエージェントタスクのパフォーマンスが大幅に向上しました。" }, "DeepSeek-V3.1-Fast": { "description": "DeepSeek V3.1 FastはDeepSeek V3.1の高TPS高速版です。ハイブリッド思考モード:チャットテンプレートを変更することで、1つのモデルが思考モードと非思考モードの両方を同時にサポートします。よりスマートなツール呼び出し:ポストトレーニング最適化により、モデルのツール使用とエージェントタスクでのパフォーマンスが著しく向上しました。" }, "DeepSeek-V3.1-Think": { "description": "DeepSeek-V3.1-思考モード;DeepSeek-V3.1は深度探索が新たにリリースしたハイブリッド推論モデルで、思考モードと非思考モードの2つの推論モードをサポートし、DeepSeek-R1-0528よりも思考効率が向上しています。ポストトレーニング最適化により、エージェントのツール使用とエージェントタスクのパフォーマンスが大幅に向上しました。" }, "DeepSeek-V3.2-Exp": { "description": "DeepSeek V3.2 は DeepSeek の最新リリースの汎用大規模モデルであり、ハイブリッド推論アーキテクチャをサポートし、より強力なエージェント機能を備えています。" }, "DeepSeek-V3.2-Exp-Think": { "description": "DeepSeek V3.2 思考モード。最終回答を出力する前に、モデルは思考の連鎖を出力し、最終回答の正確性を向上させます。" }, "Doubao-lite-128k": { "description": "Doubao-liteは極めて高速な応答速度と優れたコストパフォーマンスを備え、さまざまなシナリオに柔軟な選択肢を提供します。128kのコンテキストウィンドウでの推論と微調整をサポートします。" }, "Doubao-lite-32k": { "description": "Doubao-liteは極めて高速な応答速度と優れたコストパフォーマンスを備え、さまざまなシナリオに柔軟な選択肢を提供します。32kのコンテキストウィンドウでの推論と微調整をサポートします。" }, "Doubao-lite-4k": { "description": "Doubao-liteは極めて高速な応答速度と優れたコストパフォーマンスを備え、さまざまなシナリオに柔軟な選択肢を提供します。4kのコンテキストウィンドウでの推論と微調整をサポートします。" }, "Doubao-pro-128k": { "description": "最も高性能な主力モデルで、複雑なタスクの処理に適しています。参考質問応答、要約、創作、テキスト分類、ロールプレイなどのシーンで優れた効果を発揮します。128kのコンテキストウィンドウでの推論と微調整をサポートします。" }, "Doubao-pro-32k": { "description": "最も高性能な主力モデルで、複雑なタスクの処理に適しています。参考質問応答、要約、創作、テキスト分類、ロールプレイなどのシーンで優れた効果を発揮します。32kのコンテキストウィンドウでの推論と微調整をサポートします。" }, "Doubao-pro-4k": { "description": "最も高性能な主力モデルで、複雑なタスクの処理に適しています。参考質問応答、要約、創作、テキスト分類、ロールプレイなどのシーンで優れた効果を発揮します。4kのコンテキストウィンドウでの推論と微調整をサポートします。" }, "DreamO": { "description": "DreamOは、ByteDanceと北京大学が共同開発したオープンソースの画像カスタマイズ生成モデルで、統一されたアーキテクチャにより多様なタスクの画像生成をサポートします。効率的な組み合わせモデリング手法を採用し、ユーザーが指定したアイデンティティ、主体、スタイル、背景など複数の条件に基づき、高度に一貫性のあるカスタマイズ画像を生成可能です。" }, "ERNIE-3.5-128K": { "description": "百度が独自に開発したフラッグシップの大規模言語モデルで、膨大な中英語のコーパスをカバーし、強力な汎用能力を持っています。ほとんどの対話型質問応答、創作生成、プラグインアプリケーションの要件を満たすことができます。また、百度検索プラグインとの自動接続をサポートし、質問応答情報のタイムリーさを保証します。" }, "ERNIE-3.5-8K": { "description": "百度が独自に開発したフラッグシップの大規模言語モデルで、膨大な中英語のコーパスをカバーし、強力な汎用能力を持っています。ほとんどの対話型質問応答、創作生成、プラグインアプリケーションの要件を満たすことができます。また、百度検索プラグインとの自動接続をサポートし、質問応答情報のタイムリーさを保証します。" }, "ERNIE-3.5-8K-Preview": { "description": "百度が独自に開発したフラッグシップの大規模言語モデルで、膨大な中英語のコーパスをカバーし、強力な汎用能力を持っています。ほとんどの対話型質問応答、創作生成、プラグインアプリケーションの要件を満たすことができます。また、百度検索プラグインとの自動接続をサポートし、質問応答情報のタイムリーさを保証します。" }, "ERNIE-4.0-8K-Latest": { "description": "百度が独自に開発したフラッグシップの超大規模言語モデルで、ERNIE 3.5に比べてモデル能力が全面的にアップグレードされ、さまざまな分野の複雑なタスクシナリオに広く適用されます。百度検索プラグインとの自動接続をサポートし、質問応答情報のタイムリーさを保証します。" }, "ERNIE-4.0-8K-Preview": { "description": "百度が独自に開発したフラッグシップの超大規模言語モデルで、ERNIE 3.5に比べてモデル能力が全面的にアップグレードされ、さまざまな分野の複雑なタスクシナリオに広く適用されます。百度検索プラグインとの自動接続をサポートし、質問応答情報のタイムリーさを保証します。" }, "ERNIE-4.0-Turbo-8K-Latest": { "description": "百度が自主開発したフラッグシップの超大規模な言語モデルで、総合的なパフォーマンスが優れており、各分野の複雑なタスクシナリオに広く適応します;百度検索プラグインとの自動連携をサポートし、質問応答情報のタイムリーさを保証します。ERNIE 4.0に比べてパフォーマンスが向上しています。" }, "ERNIE-4.0-Turbo-8K-Preview": { "description": "百度が独自に開発したフラッグシップの超大規模言語モデルで、総合的なパフォーマンスが優れており、さまざまな分野の複雑なタスクシナリオに広く適用されます。百度検索プラグインとの自動接続をサポートし、質問応答情報のタイムリーさを保証します。ERNIE 4.0に比べてパフォーマンスがさらに優れています。" }, "ERNIE-Character-8K": { "description": "百度が独自に開発した垂直シナリオ向けの大規模言語モデルで、ゲームのNPC、カスタマーサービスの対話、対話型キャラクターの役割演技などのアプリケーションシナリオに適しており、キャラクターのスタイルがより鮮明で一貫性があり、指示に従う能力が強化され、推論性能が向上しています。" }, "ERNIE-Lite-Pro-128K": { "description": "百度が独自に開発した軽量大規模言語モデルで、優れたモデル効果と推論性能を兼ね備え、ERNIE Liteよりも効果が優れており、低計算能力のAIアクセラレータカードでの推論使用に適しています。" }, "ERNIE-Speed-128K": { "description": "百度が2024年に最新リリースした独自開発の高性能大規模言語モデルで、汎用能力が優れており、基盤モデルとして微調整に適しており、特定のシナリオの問題をより良く処理し、優れた推論性能を持っています。" }, "ERNIE-Speed-Pro-128K": { "description": "百度が2024年に最新リリースした独自開発の高性能大規模言語モデルで、汎用能力が優れており、ERNIE Speedよりも効果が優れており、基盤モデルとして微調整に適しており、特定のシナリオの問題をより良く処理し、優れた推論性能を持っています。" }, "FLUX-1.1-pro": { "description": "FLUX.1.1 Pro" }, "FLUX.1-Kontext-dev": { "description": "FLUX.1-Kontext-devはBlack Forest Labsが開発した、Rectified Flow Transformerアーキテクチャに基づくマルチモーダル画像生成・編集モデルで、120億パラメータ規模を持ち、与えられたコンテキスト条件下で画像の生成、再構築、強化、編集に特化しています。本モデルは拡散モデルの制御可能な生成能力とTransformerのコンテキストモデリング能力を融合し、高品質な画像出力を実現。画像修復、画像補完、視覚シーン再構築など幅広いタスクに適用可能です。" }, "FLUX.1-Kontext-pro": { "description": "FLUX.1 Kontext [pro]" }, "FLUX.1-dev": { "description": "FLUX.1-devはBlack Forest Labsが開発したオープンソースのマルチモーダル言語モデル(Multimodal Language Model, MLLM)で、画像と言語の理解と生成能力を融合し、画像と言語のタスクに最適化されています。先進的な大規模言語モデル(例:Mistral-7B)を基盤に、精巧に設計された視覚エンコーダーと多段階の指示微調整を通じて、画像と言語の協調処理と複雑なタスク推論能力を実現しています。" }, "Gryphe/MythoMax-L2-13b": { "description": "MythoMax-L2 (13B)は、革新的なモデルであり、多分野のアプリケーションや複雑なタスクに適しています。" }, "HelloMeme": { "description": "HelloMemeは、提供された画像や動作に基づいて自動的にミーム画像、GIF、短い動画を生成するAIツールです。絵画やプログラミングの知識は不要で、参考画像を用意するだけで、見栄えが良く面白く、スタイルが一貫したコンテンツを作成できます。" }, "HiDream-I1-Full": { "description": "HiDream-E1-Fullは智象未来(HiDream.ai)が提供するオープンソースのマルチモーダル画像編集大規模モデルで、先進的なDiffusion Transformerアーキテクチャを基盤に、強力な言語理解能力(内蔵LLaMA 3.1-8B-Instruct)を組み合わせています。自然言語指示による画像生成、スタイル転送、局所編集、内容の再描画をサポートし、優れた画像と言語の理解と実行能力を備えています。" }, "HunyuanDiT-v1.2-Diffusers-Distilled": { "description": "hunyuandit-v1.2-distilledは軽量化されたテキストから画像生成モデルで、蒸留による最適化が施されており、高品質な画像を迅速に生成可能です。特にリソースが限られた環境やリアルタイム生成タスクに適しています。" }, "InstantCharacter": { "description": "InstantCharacterはTencent AIチームが2025年にリリースした、微調整不要(tuning-free)のパーソナライズキャラクター生成モデルで、高忠実度かつクロスシーンで一貫したキャラクター生成を目指しています。単一の参照画像のみでキャラクターをモデリングし、そのキャラクターを多様なスタイル、動作、背景に柔軟に適用可能です。" }, "InternVL2-8B": { "description": "InternVL2-8Bは、強力な視覚言語モデルで、画像とテキストのマルチモーダル処理をサポートし、画像内容を正確に認識し、関連する説明や回答を生成することができます。" }, "InternVL2.5-26B": { "description": "InternVL2.5-26Bは、強力な視覚言語モデルで、画像とテキストのマルチモーダル処理をサポートし、画像内容を正確に認識し、関連する説明や回答を生成することができます。" }, "Kolors": { "description": "KolorsはKuaishouのKolorsチームが開発したテキストから画像生成モデルで、数十億のパラメータで訓練されており、視覚品質、中国語の意味理解、テキストレンダリングにおいて顕著な優位性を持ちます。" }, "Kwai-Kolors/Kolors": { "description": "KolorsはKuaishouのKolorsチームが開発した潜在拡散に基づく大規模テキストから画像生成モデルです。数十億のテキスト・画像ペアで訓練され、視覚品質、複雑な意味の正確性、中英文字のレンダリングに優れています。中英両言語の入力をサポートし、中国語特有の内容の理解と生成においても高い性能を発揮します。" }, "Llama-3.2-11B-Vision-Instruct": { "description": "高解像度画像で優れた画像推論能力を発揮し、視覚理解アプリケーションに適しています。" }, "Llama-3.2-90B-Vision-Instruct\t": { "description": "視覚理解エージェントアプリケーションに適した高度な画像推論能力を備えています。" }, "Meta-Llama-3-3-70B-Instruct": { "description": "Llama 3.3 70B:汎用性の高いTransformerモデルで、対話や生成タスクに適しています。" }, "Meta-Llama-3.1-405B-Instruct": { "description": "Llama 3.1の指示調整されたテキストモデルで、多言語対話のユースケースに最適化されており、多くの利用可能なオープンソースおよびクローズドチャットモデルの中で、一般的な業界ベンチマークで優れた性能を発揮します。" }, "Meta-Llama-3.1-70B-Instruct": { "description": "Llama 3.1の指示調整されたテキストモデルで、多言語対話のユースケースに最適化されており、多くの利用可能なオープンソースおよびクローズドチャットモデルの中で、一般的な業界ベンチマークで優れた性能を発揮します。" }, "Meta-Llama-3.1-8B-Instruct": { "description": "Llama 3.1の指示調整されたテキストモデルで、多言語対話のユースケースに最適化されており、多くの利用可能なオープンソースおよびクローズドチャットモデルの中で、一般的な業界ベンチマークで優れた性能を発揮します。" }, "Meta-Llama-3.2-1B-Instruct": { "description": "最先端の小型言語モデルで、言語理解、優れた推論能力、テキスト生成能力を備えています。" }, "Meta-Llama-3.2-3B-Instruct": { "description": "最先端の小型言語モデルで、言語理解、優れた推論能力、テキスト生成能力を備えています。" }, "Meta-Llama-3.3-70B-Instruct": { "description": "Llama 3.3は、Llamaシリーズの最先端の多言語オープンソース大規模言語モデルで、非常に低コストで405Bモデルに匹敵する性能を体験できます。Transformer構造に基づき、監視付き微調整(SFT)と人間のフィードバックによる強化学習(RLHF)を通じて有用性と安全性を向上させています。その指示調整バージョンは多言語対話に最適化されており、さまざまな業界のベンチマークで多くのオープンソースおよびクローズドチャットモデルを上回る性能を発揮します。知識のカットオフ日は2023年12月です。" }, "Meta-Llama-4-Maverick-17B-128E-Instruct-FP8": { "description": "Llama 4 Maverick:Mixture-of-Expertsに基づく大規模モデルで、効率的なエキスパート活性化戦略により推論性能を発揮します。" }, "MiniMax-M1": { "description": "全く新しい自社開発の推論モデル。世界最先端:80Kの思考チェーン × 1Mの入力で、海外のトップモデルに匹敵する性能を実現" }, "MiniMax-M2": { "description": "効率的なコーディングとエージェントワークフローのために設計されたモデル" }, "MiniMax-Text-01": { "description": "MiniMax-01シリーズモデルでは、大胆な革新を行いました:初めて大規模に線形注意メカニズムを実現し、従来のTransformerアーキテクチャが唯一の選択肢ではなくなりました。このモデルのパラメータ数は4560億に達し、単回のアクティベーションは459億です。モデルの総合性能は海外のトップモデルに匹敵し、世界最長の400万トークンのコンテキストを効率的に処理でき、GPT-4oの32倍、Claude-3.5-Sonnetの20倍です。" }, "MiniMaxAI/MiniMax-M1-80k": { "description": "MiniMax-M1はオープンソースの重みを持つ大規模混合注意力推論モデルで、4560億のパラメータを有し、各トークンで約459億のパラメータが活性化されます。モデルは100万トークンの超長文コンテキストをネイティブにサポートし、ライトニングアテンション機構により10万トークンの生成タスクでDeepSeek R1と比べて75%の浮動小数点演算量を削減します。また、MiniMax-M1はMoE(混合エキスパート)アーキテクチャを採用し、CISPOアルゴリズムと混合注意力設計による効率的な強化学習トレーニングを組み合わせ、長文入力推論および実際のソフトウェア工学シナリオで業界最高の性能を実現しています。" }, "Moonshot-Kimi-K2-Instruct": { "description": "総パラメータ数1兆、活性化パラメータ320億。非思考モデルの中で、先端知識、数学、コーディングにおいてトップレベルの性能を持ち、汎用エージェントタスクに優れています。エージェントタスクに特化して最適化されており、質問に答えるだけでなく行動も可能です。即興的で汎用的なチャットやエージェント体験に最適で、長時間の思考を必要としない反射的モデルです。" }, "NousResearch/Nous-Hermes-2-Mixtral-8x7B-DPO": { "description": "Nous Hermes 2 - Mixtral 8x7B-DPO (46.7B)は、高精度の指示モデルであり、複雑な計算に適しています。" }, "OmniConsistency": { "description": "OmniConsistencyは大規模なDiffusion Transformers(DiTs)とペアスタイル化データを導入することで、画像から画像へのタスクにおけるスタイルの一貫性と汎化能力を向上させ、スタイルの劣化を防止します。" }, "Phi-3-medium-128k-instruct": { "description": "同じPhi-3-mediumモデルですが、RAGまたは少数ショットプロンプティング用により大きなコンテキストサイズを持っています。" }, "Phi-3-medium-4k-instruct": { "description": "14Bパラメータのモデルで、Phi-3-miniよりも高品質で、質の高い推論密度のデータに焦点を当てています。" }, "Phi-3-mini-128k-instruct": { "description": "同じPhi-3-miniモデルですが、RAGまたは少数ショットプロンプティング用により大きなコンテキストサイズを持っています。" }, "Phi-3-mini-4k-instruct": { "description": "Phi-3ファミリーの最小メンバー。品質と低遅延の両方に最適化されています。" }, "Phi-3-small-128k-instruct": { "description": "同じPhi-3-smallモデルですが、RAGまたは少数ショットプロンプティング用により大きなコンテキストサイズを持っています。" }, "Phi-3-small-8k-instruct": { "description": "7Bパラメータのモデルで、Phi-3-miniよりも高品質で、質の高い推論密度のデータに焦点を当てています。" }, "Phi-3.5-mini-instruct": { "description": "Phi-3-miniモデルの更新版です。" }, "Phi-3.5-vision-instrust": { "description": "Phi-3-visionモデルの更新版です。" }, "Pro/Qwen/Qwen2-7B-Instruct": { "description": "Qwen2-7B-InstructはQwen2シリーズの指示微調整大規模言語モデルで、パラメータ規模は7Bです。このモデルはTransformerアーキテクチャに基づき、SwiGLU活性化関数、注意QKVバイアス、グループクエリ注意などの技術を採用しています。大規模な入力を処理することができます。このモデルは言語理解、生成、多言語能力、コーディング、数学、推論などの複数のベンチマークテストで優れたパフォーマンスを示し、ほとんどのオープンソースモデルを超え、特定のタスクでは専有モデルと同等の競争力を示しています。Qwen2-7B-Instructは多くの評価でQwen1.5-7B-Chatを上回り、顕著な性能向上を示しています。" }, "Pro/Qwen/Qwen2.5-7B-Instruct": { "description": "Qwen2.5-7B-InstructはAlibaba Cloudが発表した最新の大規模言語モデルシリーズの一つです。この7Bモデルはコーディングや数学などの分野で顕著な能力の改善を持っています。このモデルは29以上の言語をカバーする多言語サポートも提供しており、中国語、英語などが含まれています。モデルは指示の遵守、構造化データの理解、特にJSONのような構造化出力の生成において顕著な向上を示しています。" }, "Pro/Qwen/Qwen2.5-Coder-7B-Instruct": { "description": "Qwen2.5-Coder-7B-InstructはAlibaba Cloudが発表したコード特化型大規模言語モデルシリーズの最新バージョンです。このモデルはQwen2.5を基に、55兆トークンの訓練を通じて、コード生成、推論、修正能力を大幅に向上させました。コーディング能力を強化するだけでなく、数学および一般的な能力の利点も維持しています。このモデルはコードエージェントなどの実際のアプリケーションに対して、より包括的な基盤を提供します。" }, "Pro/Qwen/Qwen2.5-VL-7B-Instruct": { "description": "Qwen2.5-VLはQwenシリーズの新メンバーで、強力な視覚理解能力を備えています。画像内のテキスト、チャート、レイアウトを分析でき、長い動画の理解やイベントの捕捉が可能です。推論やツール操作が行え、多様な形式の物体位置特定や構造化された出力生成をサポートします。動画理解のための動的解像度とフレームレートのトレーニングが最適化され、視覚エンコーダーの効率も向上しています。" }, "Pro/THUDM/GLM-4.1V-9B-Thinking": { "description": "GLM-4.1V-9B-Thinking は、智譜AIと清華大学KEG研究室が共同で発表したオープンソースの視覚言語モデル(VLM)であり、複雑なマルチモーダル認知タスクの処理に特化して設計されています。本モデルはGLM-4-9B-0414の基礎モデルをベースに、「思考の連鎖(Chain-of-Thought)」推論メカニズムを導入し、強化学習戦略を採用することで、マルチモーダル間の推論能力と安定性を大幅に向上させています。" }, "Pro/THUDM/glm-4-9b-chat": { "description": "GLM-4-9B-Chatは智譜AIが提供するGLM-4シリーズの事前訓練モデルのオープンバージョンです。このモデルは意味、数学、推論、コード、知識などの複数の側面で優れたパフォーマンスを示します。多輪対話をサポートするだけでなく、GLM-4-9B-Chatはウェブブラウジング、コード実行、カスタムツール呼び出し(Function Call)、長文推論などの高度な機能も備えています。モデルは中国語、英語、日本語、韓国語、ドイツ語など26の言語をサポートしています。多くのベンチマークテストで、GLM-4-9B-Chatは優れた性能を示し、AlignBench-v2、MT-Bench、MMLU、C-Evalなどでの評価が行われています。このモデルは最大128Kのコンテキスト長をサポートし、学術研究や商業アプリケーションに適しています。" }, "Pro/deepseek-ai/DeepSeek-R1": { "description": "DeepSeek-R1は、強化学習(RL)駆動の推論モデルで、モデル内の繰り返しと可読性の問題を解決します。RLの前に、DeepSeek-R1はコールドスタートデータを導入し、推論性能をさらに最適化しました。数学、コード、推論タスクにおいてOpenAI-o1と同等の性能を発揮し、精巧に設計されたトレーニング手法によって全体的な効果を向上させています。" }, "Pro/deepseek-ai/DeepSeek-R1-Distill-Qwen-7B": { "description": "DeepSeek-R1-Distill-Qwen-7B は、Qwen2.5-Math-7B を基に知識蒸留によって得られたモデルです。このモデルは、DeepSeek-R1 によって生成された80万の精選されたサンプルを使用して微調整されており、優れた推論能力を発揮します。複数のベンチマークテストで優れた性能を示し、MATH-500では92.8%の精度、AIME 2024では55.5%の合格率、CodeForcesでは1189のスコアを達成し、7B規模のモデルとして強力な数学およびプログラミング能力を実証しています。" }, "Pro/deepseek-ai/DeepSeek-V3": { "description": "DeepSeek-V3は、6710億パラメータを持つ混合専門家(MoE)言語モデルで、多頭潜在注意力(MLA)とDeepSeekMoEアーキテクチャを採用し、無補助損失の負荷バランス戦略を組み合わせて推論とトレーニングの効率を最適化しています。14.8兆の高品質トークンで事前トレーニングを行い、監視付き微調整と強化学習を経て、DeepSeek-V3は他のオープンソースモデルを超え、先進的なクローズドモデルに近づいています。" }, "Pro/deepseek-ai/DeepSeek-V3.1-Terminus": { "description": "DeepSeek-V3.1-Terminus は深度求索(DeepSeek)による V3.1 モデルのアップデート版で、ハイブリッドエージェント大規模言語モデルとして位置付けられています。今回のアップデートはモデルの既存能力を維持しつつ、ユーザーからのフィードバックに基づく問題修正と安定性の向上に注力しています。言語の一貫性が大幅に改善され、中英混用や異常文字の出現が減少しました。モデルは「思考モード」(Thinking Mode)と「非思考モード」(Non-thinking Mode)を統合しており、ユーザーはチャットテンプレートを通じて柔軟に切り替え、異なるタスクに対応可能です。重要な最適化として、V3.1-Terminus はコードエージェント(Code Agent)と検索エージェント(Search Agent)の性能を強化し、ツール呼び出しや多段階の複雑なタスク実行においてより信頼性が高まりました。" }, "Pro/deepseek-ai/DeepSeek-V3.2-Exp": { "description": "DeepSeek-V3.2-Exp は、DeepSeek によってリリースされた実験的な V3.2 バージョンであり、次世代アーキテクチャへの移行に向けた中間的な探求です。V3.1-Terminus を基盤に、長文脈の学習と推論効率を向上させるために DeepSeek スパースアテンション(DeepSeek Sparse Attention、DSA)メカニズムを導入し、ツールの呼び出し、長文書の理解、多段階推論に特化した最適化が施されています。V3.2-Exp は研究と製品化の橋渡しとなるモデルであり、高文脈予算のシナリオでより高い推論効率を追求するユーザーに適しています。" }, "Pro/moonshotai/Kimi-K2-Instruct-0905": { "description": "Kimi K2-Instruct-0905 は Kimi K2 の最新かつ最強のバージョンです。これはトップクラスの混合専門家(MoE)言語モデルであり、総パラメータ数は1兆、活性化パラメータ数は320億を誇ります。このモデルの主な特徴は、強化されたエージェントのコーディング知能であり、公開ベンチマークテストおよび実世界のエージェントコーディングタスクで顕著な性能向上を示しています。また、フロントエンドのコーディング体験も改善され、フロントエンドプログラミングの美観と実用性の両面で進歩しています。" }, "QwQ-32B-Preview": { "description": "QwQ-32B-Previewは、複雑な対話生成と文脈理解タスクを効率的に処理できる革新的な自然言語処理モデルです。" }, "Qwen/QVQ-72B-Preview": { "description": "QVQ-72B-Previewは、Qwenチームによって開発された視覚推論能力に特化した研究モデルであり、複雑なシーン理解と視覚関連の数学問題を解決する上で独自の利点を持っています。" }, "Qwen/QwQ-32B": { "description": "QwQはQwenシリーズの推論モデルです。従来の指示調整モデルと比較して、QwQは思考と推論能力を備えており、特に困難な問題を解決する際に、下流タスクでのパフォーマンスを大幅に向上させることができます。QwQ-32Bは中型の推論モデルであり、最先端の推論モデル(DeepSeek-R1、o1-miniなど)との比較において競争力のあるパフォーマンスを発揮します。このモデルはRoPE、SwiGLU、RMSNorm、Attention QKVバイアスなどの技術を採用しており、64層のネットワーク構造と40のQアテンションヘッド(GQAアーキテクチャではKVは8個)を持っています。" }, "Qwen/QwQ-32B-Preview": { "description": "QwQ-32B-PreviewはQwenの最新の実験的研究モデルで、AIの推論能力を向上させることに特化しています。言語の混合、再帰的推論などの複雑なメカニズムを探求することで、主な利点は強力な推論分析能力、数学およびプログラミング能力です。同時に、言語切り替えの問題、推論のループ、安全性の考慮、その他の能力の違いも存在します。" }, "Qwen/Qwen-Image": { "description": "Qwen-Image は、アリババの通義千問チームによって開発された画像生成の基盤モデルで、200億のパラメータを備えています。このモデルは、複雑なテキストレンダリングや精密な画像編集において顕著な進歩を遂げており、特に高精度な中国語および英語の文字を含む画像の生成に優れています。Qwen-Image は、複数行のレイアウトや段落レベルのテキストにも対応し、画像生成時におけるレイアウトの一貫性と文脈の調和を保つことができます。卓越したテキストレンダリング能力に加え、リアルな写真からアニメ風の美学まで幅広いアートスタイルをサポートし、多様な創作ニーズに柔軟に対応可能です。また、スタイル変換、オブジェクトの追加・削除、ディテールの強化、テキスト編集、人体のポーズ操作などの高度な操作にも対応する強力な画像編集・理解能力を備えており、言語・レイアウト・画像を統合した包括的なインテリジェント視覚創作・処理の基盤モデルを目指しています。" }, "Qwen/Qwen-Image-Edit-2509": { "description": "Qwen-Image-Edit-2509 は、アリババの通義千問チームによって開発された Qwen-Image の最新画像編集バージョンです。本モデルは、200億パラメータの Qwen-Image を基に高度なトレーニングを施し、その独自のテキストレンダリング能力を画像編集分野へと拡張することに成功しました。特に、画像内の文字に対する精密な編集が可能です。Qwen-Image-Edit は革新的なアーキテクチャを採用しており、入力画像を Qwen2.5-VL(視覚的意味制御用)と VAE Encoder(視覚的外観制御用)に同時に入力することで、意味と外観の両面における編集能力を実現しています。これにより、要素の追加・削除・変更といった局所的な外観編集だけでなく、IP創作やスタイル変換など、意味の一貫性を保つ高度な視覚的意味編集にも対応可能です。複数の公開ベンチマークにおいて最先端(SOTA)の性能を示しており、強力な画像編集基盤モデルとして位置づけられています。" }, "Qwen/Qwen2-72B-Instruct": { "description": "Qwen2は、先進的な汎用言語モデルであり、さまざまな指示タイプをサポートします。" }, "Qwen/Qwen2-7B-Instruct": { "description": "Qwen2-72B-InstructはQwen2シリーズの指示微調整大規模言語モデルで、パラメータ規模は72Bです。このモデルはTransformerアーキテクチャに基づき、SwiGLU活性化関数、注意QKVバイアス、グループクエリ注意などの技術を採用しています。大規模な入力を処理することができます。このモデルは言語理解、生成、多言語能力、コーディング、数学、推論などの複数のベンチマークテストで優れたパフォーマンスを示し、ほとんどのオープンソースモデルを超え、特定のタスクでは専有モデルと同等の競争力を示しています。" }, "Qwen/Qwen2-VL-72B-Instruct": { "description": "Qwen2-VLはQwen-VLモデルの最新のイテレーションで、視覚理解のベンチマークテストで最先端の性能を達成しました。" }, "Qwen/Qwen2.5-14B-Instruct": { "description": "Qwen2.5は、新しい大型言語モデルシリーズで、指示型タスクの処理を最適化することを目的としています。" }, "Qwen/Qwen2.5-32B-Instruct": { "description": "Qwen2.5は、新しい大型言語モデルシリーズで、指示型タスクの処理を最適化することを目的としています。" }, "Qwen/Qwen2.5-72B-Instruct": { "description": "アリババクラウドの通義千問チームが開発した大規模言語モデル" }, "Qwen/Qwen2.5-72B-Instruct-128K": { "description": "Qwen2.5は新しい大型言語モデルシリーズで、より強力な理解と生成能力を持っています。" }, "Qwen/Qwen2.5-72B-Instruct-Turbo": { "description": "Qwen2.5は新しい大型言語モデルシリーズで、指示タスクの処理を最適化することを目的としています。" }, "Qwen/Qwen2.5-7B-Instruct": { "description": "Qwen2.5は、新しい大型言語モデルシリーズで、指示型タスクの処理を最適化することを目的としています。" }, "Qwen/Qwen2.5-7B-Instruct-Turbo": { "description": "Qwen2.5は新しい大型言語モデルシリーズで、指示タスクの処理を最適化することを目的としています。" }, "Qwen/Qwen2.5-Coder-32B-Instruct": { "description": "Qwen2.5-Coderはコード作成に特化しています。" }, "Qwen/Qwen2.5-Coder-7B-Instruct": { "description": "Qwen2.5-Coder-7B-InstructはAlibaba Cloudが発表したコード特化型大規模言語モデルシリーズの最新バージョンです。このモデルはQwen2.5を基に、55兆トークンの訓練を通じて、コード生成、推論、修正能力を大幅に向上させました。コーディング能力を強化するだけでなく、数学および一般的な能力の利点も維持しています。このモデルはコードエージェントなどの実際のアプリケーションに対して、より包括的な基盤を提供します。" }, "Qwen/Qwen2.5-VL-32B-Instruct": { "description": "Qwen2.5-VL-32B-Instructは、通義千問チームが開発したマルチモーダル大規模言語モデルで、Qwen2.5-VLシリーズの一部です。このモデルは一般的な物体認識に優れるだけでなく、画像内のテキスト、チャート、アイコン、グラフィック、レイアウトの分析も可能です。視覚エージェントとして機能し、推論と動的なツール操作が可能で、コンピュータやスマートフォンの操作能力を備えています。さらに、画像内のオブジェクトを正確に位置特定でき、請求書や表などの構造化された出力を生成します。前世代モデルであるQwen2-VLと比較して、強化学習による数学的思考力と問題解決能力が向上し、応答スタイルも人間の嗜好により適合しています。" }, "Qwen/Qwen2.5-VL-72B-Instruct": { "description": "Qwen2.5-VLはQwen2.5シリーズの視覚言語モデルです。このモデルは複数の面で大幅な改善が見られます:一般的な物体の認識、テキスト・図表・レイアウトの分析能力が強化された視覚理解能力を備えています;視覚エージェントとして推論を行い、ツール使用を動的に指導できます;1時間以上の長い動画を理解し、重要なイベントを捕捉することが可能です;境界ボックスやポイントを生成することで画像内の物体を正確に位置特定できます;特に請求書や表などのスキャンデータに適した構造化出力の生成をサポートしています。" }, "Qwen/Qwen3-14B": { "description": "Qwen3は、能力が大幅に向上した新世代の通義千問大モデルであり、推論、一般、エージェント、多言語などの複数のコア能力で業界のリーダーレベルに達し、思考モードの切り替えをサポートしています。" }, "Qwen/Qwen3-235B-A22B": { "description": "Qwen3は、能力が大幅に向上した新世代の通義千問大モデルであり、推論、一般、エージェント、多言語などの複数のコア能力で業界のリーダーレベルに達し、思考モードの切り替えをサポートしています。" }, "Qwen/Qwen3-235B-A22B-Instruct-2507": { "description": "Qwen3シリーズのフラッグシップ混合専門家(MoE)大規模言語モデルで、Alibaba Cloud Tongyi Qianwenチームが開発。総パラメータ2350億、推論時に220億パラメータを活性化します。Qwen3-235B-A22Bの非思考モードのアップデート版で、指示遵守、論理推論、テキスト理解、数学、科学、プログラミング、ツール使用などの汎用能力が大幅に向上。多言語の長尾知識カバーを強化し、主観的かつオープンなタスクにおけるユーザーの好みにより良く整合し、より有用で高品質なテキスト生成を実現します。" }, "Qwen/Qwen3-235B-A22B-Thinking-2507": { "description": "Qwen3シリーズの大型言語モデルの一つで、Alibaba Tongyi Qianwenチームが開発。複雑な推論タスクに特化し、混合専門家(MoE)アーキテクチャを採用。総パラメータ2350億、トークンごとに約220億パラメータを活性化し、計算効率を高めつつ強力な性能を維持。論理推論、数学、科学、プログラミング、学術ベンチマークなど専門知識を要するタスクで顕著な性能向上を示し、オープンソースの思考モデルの中でトップレベル。指示遵守、ツール使用、テキスト生成などの汎用能力も強化し、256Kの長文コンテキスト理解をネイティブにサポート。深い推論や長文処理が必要なシナリオに最適です。" }, "Qwen/Qwen3-30B-A3B": { "description": "Qwen3は、能力が大幅に向上した新世代の通義千問大モデルであり、推論、一般、エージェント、多言語などの複数のコア能力で業界のリーダーレベルに達し、思考モードの切り替えをサポートしています。" }, "Qwen/Qwen3-30B-A3B-Instruct-2507": { "description": "Qwen3-30B-A3B-Instruct-2507は、Qwen3-30B-A3Bの非思考モードのアップデート版です。これは総パラメータ数305億、活性化パラメータ数33億の混合エキスパート(MoE)モデルです。本モデルは指示遵守、論理推論、テキスト理解、数学、科学、コーディング、ツール使用などの汎用能力を大幅に強化しました。また、多言語のロングテール知識カバレッジに実質的な進展を遂げ、主観的かつオープンなタスクにおけるユーザーの好みにより良く適合し、より有用な応答と高品質なテキストを生成できます。さらに、本モデルの長文理解能力は256Kにまで強化されています。本モデルは非思考モードのみをサポートし、出力に`<think></think>`タグは生成されません。" }, "Qwen/Qwen3-30B-A3B-Thinking-2507": { "description": "Qwen3-30B-A3B-Thinking-2507 はアリババ(Alibaba)の通義千問チームが公開した Qwen3 シリーズの最新の思考モデルです。総パラメータ数305億、アクティベーションパラメータ33億を有する混合エキスパート(MoE)モデルとして、複雑なタスクの処理能力の向上に特化しています。本モデルは論理推論、数学、科学、プログラミング、そして人間の専門知識を要する学術ベンチマークにおいて顕著な性能向上を示しています。同時に、指示の遵守、ツールの利用、テキスト生成、人間の嗜好との整合といった汎用能力も大幅に強化されています。モデルはネイティブで256Kの長文コンテキスト理解をサポートし、最大100万トークンまで拡張可能です。このバージョンは「思考モード」向けに設計されており、詳細なステップごとの推論を通じて高度に複雑なタスクを解決することを目的としており、エージェント機能も優れています。" }, "Qwen/Qwen3-32B": { "description": "Qwen3は、能力が大幅に向上した新世代の通義千問大モデルであり、推論、一般、エージェント、多言語などの複数のコア能力で業界のリーダーレベルに達し、思考モードの切り替えをサポートしています。" }, "Qwen/Qwen3-8B": { "description": "Qwen3は、能力が大幅に向上した新世代の通義千問大モデルであり、推論、一般、エージェント、多言語などの複数のコア能力で業界のリーダーレベルに達し、思考モードの切り替えをサポートしています。" }, "Qwen/Qwen3-Coder-30B-A3B-Instruct": { "description": "Qwen3-Coder-30B-A3B-Instruct はアリババの通義千問チームが開発した Qwen3 シリーズのコードモデルです。精練・最適化されたモデルとして、高い性能と効率を維持しつつ、コード処理能力の向上に注力しています。本モデルはエージェント型コーディング(Agentic Coding)、自動化ブラウザ操作、ツール呼び出しなどの複雑なタスクにおいて、オープンソースモデルの中で顕著な性能優位を示します。ネイティブで256Kトークンの長文コンテキストをサポートし、最大1Mトークンまで拡張可能であるため、コードベースレベルの理解と処理をより適切に行えます。さらに、本モデルは Qwen Code や CLINE などのプラットフォームに対して強力なエージェントコーディング支援を提供し、専用の関数呼び出しフォーマットを設計しています。" }, "Qwen/Qwen3-Coder-480B-A35B-Instruct": { "description": "Qwen3-Coder-480B-A35B-Instruct はアリババが公開した、これまでで最もエージェント(Agentic)能力に優れたコードモデルです。合計4,800億の総パラメータと350億のアクティベーションパラメータを持つ混合エキスパート(MoE)モデルで、効率性と性能のバランスを実現しています。本モデルはネイティブに256K(約26万)トークンのコンテキスト長をサポートし、YaRNなどの外挿手法により最大100万トークンまで拡張可能で、大規模なコードベースや複雑なプログラミングタスクの処理が可能です。Qwen3-Coderはエージェント型のコーディングワークフロー向けに設計されており、コードを生成するだけでなく、開発ツールや環境と自律的に相互作用して複雑なプログラミング課題を解決します。複数のコーディングおよびエージェントタスクのベンチマークにおいて、本モデルはオープンソースモデルの中でトップクラスの性能を示しており、その性能はClaude Sonnet 4などの先進モデルと比肩するものです。" }, "Qwen/Qwen3-Next-80B-A3B-Instruct": { "description": "Qwen3-Next-80B-A3B-Instructは、アリババのTongyi Qianwenチームによってリリースされた次世代基盤モデルです。新しいQwen3-Nextアーキテクチャに基づき、極限のトレーニングと推論効率を実現することを目的としています。このモデルは革新的なハイブリッド注意機構(Gated DeltaNetとGated Attention)、高いスパース性を持つ混合エキスパート(MoE)構造、および複数のトレーニング安定化最適化を採用しています。総パラメータ数800億のスパースモデルとして、推論時には約30億パラメータのみを活性化し、計算コストを大幅に削減しています。32Kトークンを超える長文コンテキストタスクの処理においては、Qwen3-32Bモデルと比較して推論スループットが10倍以上向上しています。本モデルは指示微調整版であり、汎用タスク向けに設計されており、思考チェーン(Thinking)モードはサポートしていません。性能面では、Tongyi QianwenのフラッグシップモデルQwen3-235Bと一部ベンチマークで同等のパフォーマンスを示し、特に超長文コンテキストタスクで顕著な優位性を発揮します。" }, "Qwen/Qwen3-Next-80B-A3B-Thinking": { "description": "Qwen3-Next-80B-A3B-Thinkingは、アリババのTongyi Qianwenチームによってリリースされた、複雑な推論タスク向けに設計された次世代基盤モデルです。革新的なQwen3-Nextアーキテクチャに基づき、ハイブリッド注意機構(Gated DeltaNetとGated Attention)と高スパース性混合エキスパート(MoE)構造を融合し、極限のトレーニングおよび推論効率を実現しています。総パラメータ数800億のスパースモデルとして、推論時には約30億パラメータのみを活性化し、計算コストを大幅に削減しています。32Kトークンを超える長文コンテキストタスクの処理においては、Qwen3-32Bモデルと比較してスループットが10倍以上向上しています。この「Thinking」バージョンは、数学的証明、コード合成、論理分析、計画などの高難度多段階タスクの実行に最適化されており、推論過程を構造化された「思考チェーン」形式で出力することをデフォルトとしています。性能面では、Qwen3-32B-Thinkingなどのコストの高いモデルを凌駕し、複数のベンチマークでGemini-2.5-Flash-Thinkingを上回る結果を示しています。" }, "Qwen/Qwen3-Omni-30B-A3B-Captioner": { "description": "Qwen3-Omni-30B-A3B-Captioner は、アリババの通義千問チームによる Qwen3 シリーズの視覚言語モデル(VLM)です。高品質で詳細かつ正確な画像キャプションの生成に特化しています。300億の総パラメータを持つ混合エキスパート(MoE)アーキテクチャに基づき、画像内容を深く理解し、自然で流暢な文章に変換することが可能です。画像の細部把握、シーン理解、物体認識、関係推論などに優れ、精密な画像理解と記述生成が求められるアプリケーションに最適です。" }, "Qwen/Qwen3-Omni-30B-A3B-Instruct": { "description": "Qwen3-Omni-30B-A3B-Instruct は、アリババの通義千問チームによる最新の Qwen3 シリーズの一つです。300億の総パラメータと30億のアクティブパラメータを持つ混合エキスパート(MoE)モデルで、強力な性能を維持しつつ推論コストを抑えています。高品質かつ多様なソース、多言語データでトレーニングされており、優れた汎用性を備えています。テキスト、画像、音声、動画などの全モーダル入力に対応し、クロスモーダルな理解と生成が可能です。" }, "Qwen/Qwen3-Omni-30B-A3B-Thinking": { "description": "Qwen3-Omni-30B-A3B-Thinking は、Qwen3-Omni 全モーダルモデルの中核を担う「思考者(Thinker)」コンポーネントです。テキスト、音声、画像、動画などの多モーダル入力を処理し、複雑な思考チェーン推論を実行します。推論の中枢として、すべての入力を共通の表現空間に統一し、クロスモーダルな深い理解と高度な推論能力を実現します。混合エキスパート(MoE)アーキテクチャに基づき、300億の総パラメータと30億のアクティブパラメータを持ち、強力な推論能力と計算効率の最適化を両立しています。" }, "Qwen/Qwen3-VL-235B-A22B-Instruct": { "description": "Qwen3-VL-235B-A22B-Instruct は、Qwen3-VL シリーズの大規模な命令調整モデルで、混合エキスパート(MoE)アーキテクチャに基づき、卓越したマルチモーダル理解と生成能力を備えています。ネイティブで 256K の文脈長をサポートし、高負荷なマルチモーダルサービスの本番環境に適しています。" }, "Qwen/Qwen3-VL-235B-A22B-Thinking": { "description": "Qwen3-VL-235B-A22B-Thinking は、Qwen3-VL シリーズのフラッグシップ思考モデルであり、複雑なマルチモーダル推論、長文脈推論、エージェントとの対話に特化した最適化が施されています。深い思考と視覚的推論が求められるエンタープライズ向けシナリオに最適です。" }, "Qwen/Qwen3-VL-30B-A3B-Instruct": { "description": "Qwen3-VL-30B-A3B-Instruct は、Qwen3-VL シリーズの命令調整バージョンであり、強力な視覚と言語の理解および生成能力を備えています。ネイティブで 256K の文脈長をサポートし、マルチモーダル対話や画像条件付き生成タスクに適しています。" }, "Qwen/Qwen3-VL-30B-A3B-Thinking": { "description": "Qwen3-VL-30B-A3B-Thinking は、Qwen3-VL の推論強化バージョン(Thinking)であり、マルチモーダル推論、画像からコードへの変換、複雑な視覚理解タスクにおいて最適化されています。256K の文脈長をサポートし、より強力な連鎖的思考能力を備えています。" }, "Qwen/Qwen3-VL-32B-Instruct": { "description": "Qwen3-VL-32B-Instruct は、アリババの通義千問チームが開発した視覚言語モデルで、複数の視覚言語ベンチマークにおいて最先端(SOTA)の性能を達成しています。メガピクセル級の高解像度画像入力に対応し、優れた汎用視覚理解、多言語OCR、精密な視覚的ローカライズ、視覚対話能力を備えています。Qwen3シリーズの視覚言語モデルとして、複雑な多モーダルタスクに対応し、ツール呼び出しやプロンプト継続などの高度な機能もサポートします。" }, "Qwen/Qwen3-VL-32B-Thinking": { "description": "Qwen3-VL-32B-Thinking は、アリババの通義千問チームが開発した視覚言語モデルの中で、複雑な視覚推論タスクに特化して最適化されたバージョンです。「思考モード」を内蔵しており、質問に答える前に詳細な中間推論ステップを生成することで、マルチステップの論理、計画、複雑な推論が求められるタスクにおいて優れた性能を発揮します。メガピクセル級の高解像度画像入力に対応し、汎用視覚理解、多言語OCR、精密な視覚的ローカライズ、視覚対話能力を備え、ツール呼び出しやプロンプト継続などの機能もサポートします。" }, "Qwen/Qwen3-VL-8B-Instruct": { "description": "Qwen3-VL-8B-Instruct は、Qwen3 シリーズの視覚言語モデルであり、Qwen3-8B-Instruct を基に開発され、大量の画像と言語データでトレーニングされています。一般的な視覚理解、視覚中心の対話、画像内の多言語テキスト認識に優れており、視覚質問応答、画像説明、多モーダル指示の実行やツール呼び出しといったシナリオに適しています。" }, "Qwen/Qwen3-VL-8B-Thinking": { "description": "Qwen3-VL-8B-Thinking は、Qwen3 シリーズの視覚的思考モデルであり、複雑なマルチステップ推論タスクに最適化されています。回答の前に段階的な思考プロセス(thinking chain)を生成することで、推論の正確性を高める設計となっています。深い推論が求められる視覚質問応答や、画像内容の精査と詳細な分析が必要なシナリオに適しています。" }, "Qwen2-72B-Instruct": { "description": "Qwen2はQwenモデルの最新シリーズで、128kのコンテキストをサポートしています。現在の最適なオープンソースモデルと比較して、Qwen2-72Bは自然言語理解、知識、コード、数学、そして多言語などの能力において、現在のリーディングモデルを大幅に上回っています。" }, "Qwen2-7B-Instruct": { "description": "Qwen2はQwenモデルの最新シリーズで、同等の規模の最適なオープンソースモデルやそれ以上の規模のモデルを超えることができ、Qwen2 7Bは複数の評価で顕著な優位性を示し、特にコードと中国語理解において優れています。" }, "Qwen2-VL-72B": { "description": "Qwen2-VL-72Bは、強力な視覚言語モデルであり、画像とテキストのマルチモーダル処理をサポートし、画像の内容を正確に認識し、関連する説明や回答を生成できます。" }, "Qwen2.5-14B-Instruct": { "description": "Qwen2.5-14B-Instructは、140億パラメータの大規模言語モデルで、優れたパフォーマンスを発揮し、中国語と多言語シーンを最適化し、インテリジェントQ&A、コンテンツ生成などのアプリケーションをサポートします。" }, "Qwen2.5-32B-Instruct": { "description": "Qwen2.5-32B-Instructは、320億パラメータの大規模言語モデルで、パフォーマンスが均衡しており、中国語と多言語シーンを最適化し、インテリジェントQ&A、コンテンツ生成などのアプリケーションをサポートします。" }, "Qwen2.5-72B-Instruct": { "description": "Qwen2.5-72B-Instructは、16kのコンテキストをサポートし、8Kを超える長文を生成します。関数呼び出しと外部システムとのシームレスなインタラクションをサポートし、柔軟性と拡張性を大幅に向上させました。モデルの知識は明らかに増加し、コーディングと数学の能力が大幅に向上し、29以上の言語をサポートしています。" }, "Qwen2.5-7B-Instruct": { "description": "Qwen2.5-7B-Instructは、70億パラメータの大規模言語モデルで、関数呼び出しと外部システムとのシームレスなインタラクションをサポートし、柔軟性と拡張性を大幅に向上させます。中国語と多言語シーンを最適化し、インテリジェントQ&A、コンテンツ生成などのアプリケーションをサポートします。" }, "Qwen2.5-Coder-14B-Instruct": { "description": "Qwen2.5-Coder-14B-Instructは、大規模な事前学習に基づくプログラミング指示モデルであり、強力なコード理解と生成能力を持ち、さまざまなプログラミングタスクを効率的に処理でき、特にスマートコード作成、自動化スクリプト生成、プログラミング問題の解決に適しています。" }, "Qwen2.5-Coder-32B-Instruct": { "description": "Qwen2.5-Coder-32B-Instructは、コード生成、コード理解、効率的な開発シーンのために設計された大規模言語モデルで、業界をリードする32Bパラメータ規模を採用しており、多様なプログラミングニーズに応えます。" }, "Qwen3-235B": { "description": "Qwen3-235B-A22BはMoE(混合エキスパートモデル)で、「混合推論モード」を導入し、ユーザーが「思考モード」と「非思考モード」をシームレスに切り替え可能です。119言語と方言の理解・推論をサポートし、強力なツール呼び出し能力を備えています。総合能力、コード・数学、多言語能力、知識・推論などの複数のベンチマークで、DeepSeek R1、OpenAI o1、o3-mini、Grok 3、Google Gemini 2.5 Proなどの主要な大規模モデルと競合可能です。" }, "Qwen3-235B-A22B-Instruct-2507-FP8": { "description": "Qwen3 235B A22B Instruct 2507:高度な推論と対話指示に最適化されたモデルで、混合エキスパート構造により大規模パラメータでも推論効率を維持します。" }, "Qwen3-32B": { "description": "Qwen3-32Bは密モデル(Dense Model)で、「混合推論モード」を導入し、ユーザーが「思考モード」と「非思考モード」をシームレスに切り替え可能です。モデルアーキテクチャの改良、トレーニングデータの増加、より効率的なトレーニング手法により、全体的な性能はQwen2.5-72Bと同等の水準に達しています。" }, "SenseChat": { "description": "基本バージョンのモデル (V4)、4Kのコンテキスト長で、汎用能力が強力です。" }, "SenseChat-128K": { "description": "基本バージョンのモデル (V4)、128Kのコンテキスト長で、長文理解や生成などのタスクで優れたパフォーマンスを発揮します。" }, "SenseChat-32K": { "description": "基本バージョンのモデル (V4)、32Kのコンテキスト長で、さまざまなシーンに柔軟に適用できます。" }, "SenseChat-5": { "description": "最新バージョンのモデル (V5.5)、128Kのコンテキスト長で、数学的推論、英語の対話、指示のフォロー、長文理解などの分野での能力が大幅に向上し、GPT-4oに匹敵します。" }, "SenseChat-5-1202": { "description": "V5.5をベースにした最新バージョンで、前バージョンに比べて中英語の基礎能力、チャット、理系知識、文系知識、ライティング、数理論理、文字数制御など複数の面で顕著に向上しています。" }, "SenseChat-5-Cantonese": { "description": "32Kのコンテキスト長で、広東語の対話理解においてGPT-4を超え、知識、推論、数学、コード作成などの複数の分野でGPT-4 Turboに匹敵します。" }, "SenseChat-5-beta": { "description": "一部の性能が SenseCat-5-1202 を上回っています" }, "SenseChat-Character": { "description": "スタンダード版モデル、8Kのコンテキスト長で、高速な応答速度を持っています。" }, "SenseChat-Character-Pro": { "description": "ハイエンド版モデル、32Kのコンテキスト長で、能力が全面的に向上し、中国語/英語の対話をサポートしています。" }, "SenseChat-Turbo": { "description": "迅速な質問応答やモデルの微調整シーンに適しています。" }, "SenseChat-Turbo-1202": { "description": "最新の軽量バージョンモデルで、フルモデルの90%以上の能力を達成し、推論コストを大幅に削減しています。" }, "SenseChat-Vision": { "description": "最新バージョンモデル (V5.5) で、複数の画像入力をサポートし、モデルの基本能力の最適化を全面的に実現し、オブジェクト属性認識、空間関係、動作イベント認識、シーン理解、感情認識、論理常識推論、テキスト理解生成において大幅な向上を実現しました。" }, "SenseNova-V6-5-Pro": { "description": "多モーダル、言語、推論データの包括的な更新とトレーニング戦略の最適化により、新モデルは多モーダル推論と汎用指示遵守能力で顕著な向上を実現しました。最大128kのコンテキストウィンドウをサポートし、OCRや文化観光IP認識などの専門タスクで卓越した性能を発揮します。" }, "SenseNova-V6-5-Turbo": { "description": "多モーダル、言語、推論データの包括的な更新とトレーニング戦略の最適化により、新モデルは多モーダル推論と汎用指示遵守能力で顕著な向上を実現しました。最大128kのコンテキストウィンドウをサポートし、OCRや文化観光IP認識などの専門タスクで卓越した性能を発揮します。" }, "SenseNova-V6-Pro": { "description": "画像、テキスト、動画の能力をネイティブに統一し、従来のマルチモーダルの分立的制限を突破し、OpenCompassとSuperCLUEの評価でダブルチャンピオンを獲得しました。" }, "SenseNova-V6-Reasoner": { "description": "視覚と言語の深い推論を兼ね備え、ゆっくりとした思考と深い推論を実現し、完全な思考の連鎖過程を提示します。" }, "SenseNova-V6-Turbo": { "description": "画像、テキスト、動画の能力をネイティブに統一し、従来のマルチモーダルの分立的制限を突破し、マルチモーダルの基礎能力や言語の基礎能力などのコア次元で全面的にリードし、文理を兼ね備え、複数の評価で国内外の第一梯隊レベルに何度もランクインしています。" }, "Skylark2-lite-8k": { "description": "雲雀(Skylark)第2世代モデル、Skylark2-liteモデルは高い応答速度を持ち、リアルタイム性が求められ、コストに敏感で、モデルの精度要求がそれほど高くないシーンに適しています。コンテキストウィンドウ長は8kです。" }, "Skylark2-pro-32k": { "description": "雲雀(Skylark)第2世代モデル、Skylark2-proバージョンは高いモデル精度を持ち、専門分野の文書生成、小説創作、高品質翻訳などの複雑なテキスト生成シーンに適しています。コンテキストウィンドウ長は32kです。" }, "Skylark2-pro-4k": { "description": "雲雀(Skylark)第2世代モデル、Skylark2-proモデルは高いモデル精度を持ち、専門分野の文書生成、小説創作、高品質翻訳などの複雑なテキスト生成シーンに適しています。コンテキストウィンドウ長は4kです。" }, "Skylark2-pro-character-4k": { "description": "雲雀(Skylark)第2世代モデル、Skylark2-pro-characterモデルは、優れたロールプレイングとチャット能力を持ち、ユーザーのプロンプト要件に基づいて異なるキャラクターを演じながらチャットを行うのが得意です。キャラクターのスタイルが際立ち、対話の内容は自然で流暢です。チャットボット、仮想アシスタント、オンラインカスタマーサービスなどのシーンに適しており、高速な応答を実現します。" }, "Skylark2-pro-turbo-8k": { "description": "雲雀(Skylark)第2世代モデル、Skylark2-pro-turbo-8kは、推論がより速く、コストが低く、コンテキストウィンドウ長は8kです。" }, "THUDM/GLM-4-32B-0414": { "description": "GLM-4-32B-0414はGLMシリーズの新世代オープンソースモデルで、320億パラメータを持ちます。このモデルはOpenAIのGPTシリーズやDeepSeekのV3/R1シリーズと同等の性能を持っています。" }, "THUDM/GLM-4-9B-0414": { "description": "GLM-4-9B-0414はGLMシリーズの小型モデルで、90億パラメータを持ちます。このモデルはGLM-4-32Bシリーズの技術的特徴を継承しつつ、より軽量なデプロイメントオプションを提供します。規模は小さいものの、GLM-4-9B-0414はコード生成、ウェブデザイン、SVGグラフィック生成、検索ベースの執筆などのタスクで優れた能力を示しています。" }, "THUDM/GLM-4.1V-9B-Thinking": { "description": "GLM-4.1V-9B-Thinking は、智譜AIと清華大学KEG研究室が共同で発表したオープンソースの視覚言語モデル(VLM)であり、複雑なマルチモーダル認知タスクの処理に特化して設計されています。本モデルはGLM-4-9B-0414の基礎モデルをベースに、「思考の連鎖(Chain-of-Thought)」推論メカニズムを導入し、強化学習戦略を採用することで、マルチモーダル間の推論能力と安定性を大幅に向上させています。" }, "THUDM/GLM-Z1-32B-0414": { "description": "GLM-Z1-32B-0414は深い思考能力を持つ推論モデルです。このモデルはGLM-4-32B-0414に基づき、コールドスタートと拡張強化学習を通じて開発され、数学、コード、論理タスクにおいてさらに訓練されています。基礎モデルと比較して、GLM-Z1-32B-0414は数学能力と複雑なタスクの解決能力を大幅に向上させています。" }, "THUDM/GLM-Z1-9B-0414": { "description": "GLM-Z1-9B-0414はGLMシリーズの小型モデルで、90億パラメータを持ち、オープンソースの伝統を維持しつつ驚くべき能力を示しています。規模は小さいものの、このモデルは数学推論や一般的なタスクで優れたパフォーマンスを発揮し、同等の規模のオープンソースモデルの中でリーダーシップを発揮しています。" }, "THUDM/GLM-Z1-Rumination-32B-0414": { "description": "GLM-Z1-Rumination-32B-0414は深い推論能力を持つモデルで(OpenAIのDeep Researchに対抗)、典型的な深い思考モデルとは異なり、より長い時間の深い思考を用いてよりオープンで複雑な問題を解決します。" }, "THUDM/glm-4-9b-chat": { "description": "GLM-4 9Bはオープンソース版で、会話アプリケーションに最適化された対話体験を提供します。" }, "Tongyi-Zhiwen/QwenLong-L1-32B": { "description": "QwenLong-L1-32Bは強化学習で訓練された初の長文コンテキスト大型推論モデル(LRM)で、長文推論タスクに特化して最適化されています。段階的なコンテキスト拡張強化学習フレームワークにより、短文から長文への安定した移行を実現。7つの長文ドキュメントQAベンチマークでOpenAI-o3-miniやQwen3-235B-A22Bなどのフラッグシップモデルを上回り、Claude-3.7-Sonnet-Thinkingに匹敵する性能を示します。数学推論、論理推論、多段推論などの複雑なタスクに特に優れています。" }, "Yi-34B-Chat": { "description": "Yi-1.5-34Bは、元のシリーズモデルの優れた汎用言語能力を維持しつつ、5000億の高品質トークンを増分トレーニングすることで、数学的論理とコーディング能力を大幅に向上させました。" }, "abab5.5-chat": { "description": "生産性シーン向けであり、複雑なタスク処理と効率的なテキスト生成をサポートし、専門分野のアプリケーションに適しています。" }, "abab5.5s-chat": { "description": "中国語のキャラクター対話シーンに特化しており、高品質な中国語対話生成能力を提供し、さまざまなアプリケーションシーンに適しています。" }, "abab6.5g-chat": { "description": "多言語のキャラクター対話に特化しており、英語および他の多くの言語の高品質な対話生成をサポートします。" }, "abab6.5s-chat": { "description": "テキスト生成、対話システムなど、幅広い自然言語処理タスクに適しています。" }, "abab6.5t-chat": { "description": "中国語のキャラクター対話シーンに最適化されており、流暢で中国語の表現習慣に合った対話生成能力を提供します。" }, "accounts/fireworks/models/deepseek-r1": { "description": "DeepSeek-R1は、強化学習とコールドスタートデータの最適化を経た最先端の大規模言語モデルで、優れた推論、数学、プログラミング性能を持っています。" }, "accounts/fireworks/models/deepseek-v3": { "description": "Deepseekが提供する強力なMixture-of-Experts (MoE)言語モデルで、総パラメータ数は671Bであり、各トークンは37Bのパラメータを活性化します。" }, "accounts/fireworks/models/llama-v3-70b-instruct": { "description": "Llama 3 70B指示モデルは、多言語対話と自然言語理解に最適化されており、ほとんどの競合モデルを上回る性能を持っています。" }, "accounts/fireworks/models/llama-v3-8b-instruct": { "description": "Llama 3 8B指示モデルは、対話や多言語タスクに最適化されており、卓越した効率を発揮します。" }, "accounts/fireworks/models/llama-v3-8b-instruct-hf": { "description": "Llama 3 8B指示モデル(HFバージョン)は、公式実装結果と一致し、高い一貫性とクロスプラットフォーム互換性を持っています。" }, "accounts/fireworks/models/llama-v3p1-405b-instruct": { "description": "Llama 3.1 405B指示モデルは、超大規模なパラメータを持ち、複雑なタスクや高負荷シナリオでの指示フォローに適しています。" }, "accounts/fireworks/models/llama-v3p1-70b-instruct": { "description": "Llama 3.1 70B指示モデルは、卓越した自然言語理解と生成能力を提供し、対話や分析タスクに理想的な選択肢です。" }, "accounts/fireworks/models/llama-v3p1-8b-instruct": { "description": "Llama 3.1 8B指示モデルは、多言語対話の最適化のために設計されており、一般的な業界ベンチマークを超える性能を発揮します。" }, "accounts/fireworks/models/llama-v3p2-11b-vision-instruct": { "description": "Metaの11Bパラメータ指示調整画像推論モデルです。このモデルは視覚認識、画像推論、画像説明、および画像に関する一般的な質問への回答に最適化されています。このモデルは、グラフや図表などの視覚データを理解し、画像の詳細をテキストで記述することで、視覚と言語の間のギャップを埋めることができます。" }, "accounts/fireworks/models/llama-v3p2-3b-instruct": { "description": "Llama 3.2 3B指示モデルはMetaが発表した軽量な多言語モデルです。このモデルは効率を向上させることを目的としており、より大規模なモデルと比較して遅延とコストの面で大きな改善を提供します。このモデルの使用例には、問い合わせやプロンプトのリライト、執筆支援が含まれます。" }, "accounts/fireworks/models/llama-v3p2-90b-vision-instruct": { "description": "Metaの90Bパラメータ指示調整画像推論モデルです。このモデルは視覚認識、画像推論、画像説明、および画像に関する一般的な質問への回答に最適化されています。このモデルは、グラフや図表などの視覚データを理解し、画像の詳細をテキストで記述することで、視覚と言語の間のギャップを埋めることができます。" }, "accounts/fireworks/models/llama-v3p3-70b-instruct": { "description": "Llama 3.3 70B Instructは、Llama 3.1 70Bの12月の更新版です。このモデルは、2024年7月にリリースされたLlama 3.1 70Bを基に改良され、ツール呼び出し、多言語テキストサポート、数学およびプログラミング能力が強化されています。このモデルは、推論、数学、指示遵守の面で業界の最前線に達しており、3.1 405Bと同等の性能を提供しつつ、速度とコストにおいて顕著な利点を持っています。" }, "accounts/fireworks/models/mistral-small-24b-instruct-2501": { "description": "24Bパラメータモデルで、より大規模なモデルと同等の最先端の能力を備えています。" }, "accounts/fireworks/models/mixtral-8x22b-instruct": { "description": "Mixtral MoE 8x22B指示モデルは、大規模なパラメータと多専門家アーキテクチャを持ち、複雑なタスクの高効率処理を全方位でサポートします。" }, "accounts/fireworks/models/mixtral-8x7b-instruct": { "description": "Mixtral MoE 8x7B指示モデルは、多専門家アーキテクチャを提供し、高効率の指示フォローと実行をサポートします。" }, "accounts/fireworks/models/mythomax-l2-13b": { "description": "MythoMax L2 13Bモデルは、新しい統合技術を組み合わせており、物語やキャラクターの役割に優れています。" }, "accounts/fireworks/models/phi-3-vision-128k-instruct": { "description": "Phi 3 Vision指示モデルは、軽量の多モーダルモデルであり、複雑な視覚とテキスト情報を処理でき、強力な推論能力を持っています。" }, "accounts/fireworks/models/qwen-qwq-32b-preview": { "description": "QwQモデルはQwenチームによって開発された実験的な研究モデルで、AIの推論能力を強化することに焦点を当てています。" }, "accounts/fireworks/models/qwen2-vl-72b-instruct": { "description": "Qwen-VLモデルの72Bバージョンは、アリババの最新のイテレーションの成果であり、近年の革新を代表しています。" }, "accounts/fireworks/models/qwen2p5-72b-instruct": { "description": "Qwen2.5はAlibaba Cloud Qwenチームによって開発された一連のデコーダーのみを含む言語モデルです。これらのモデルは、0.5B、1.5B、3B、7B、14B、32B、72Bなど、さまざまなサイズを提供し、ベース版と指示版の2種類のバリエーションがあります。" }, "accounts/fireworks/models/qwen2p5-coder-32b-instruct": { "description": "Qwen2.5 Coder 32B InstructはAlibaba Cloudが発表したコード特化型大規模言語モデルシリーズの最新バージョンです。このモデルはQwen2.5を基に、55兆トークンの訓練を通じて、コード生成、推論、修正能力を大幅に向上させました。コーディング能力を強化するだけでなく、数学および一般的な能力の利点も維持しています。このモデルはコードエージェントなどの実際のアプリケーションに対して、より包括的な基盤を提供します。" }, "accounts/yi-01-ai/models/yi-large": { "description": "Yi-Largeモデルは、卓越した多言語処理能力を持ち、さまざまな言語生成と理解タスクに使用できます。" }, "ai21-jamba-1.5-large": { "description": "398Bパラメータ(94Bアクティブ)の多言語モデルで、256Kの長いコンテキストウィンドウ、関数呼び出し、構造化出力、基盤生成を提供します。" }, "ai21-jamba-1.5-mini": { "description": "52Bパラメータ(12Bアクティブ)の多言語モデルで、256Kの長いコンテキストウィンドウ、関数呼び出し、構造化出力、基盤生成を提供します。" }, "ai21-labs/AI21-Jamba-1.5-Large": { "description": "398Bパラメータ(うち94Bがアクティブ)の多言語モデルで、256Kの長いコンテキストウィンドウ、関数呼び出し、構造化出力、事実に基づく生成を提供します。" }, "ai21-labs/AI21-Jamba-1.5-Mini": { "description": "52Bパラメータ(うち12Bがアクティブ)の多言語モデルで、256Kの長いコンテキストウィンドウ、関数呼び出し、構造化出力、事実に基づく生成を提供します。" }, "alibaba/qwen-3-14b": { "description": "Qwen3 は Qwen シリーズの最新世代の大規模言語モデルで、包括的な密集型および混合エキスパート(MoE)モデルのセットを提供します。広範なトレーニングに基づき、Qwen3 は推論、指示遵守、エージェント能力、多言語対応において画期的な進歩を実現しています。" }, "alibaba/qwen-3-235b": { "description": "Qwen3 は Qwen シリーズの最新世代の大規模言語モデルで、包括的な密集型および混合エキスパート(MoE)モデルのセットを提供します。広範なトレーニングに基づき、Qwen3 は推論、指示遵守、エージェント能力、多言語対応において画期的な進歩を実現しています。" }, "alibaba/qwen-3-30b": { "description": "Qwen3 は Qwen シリーズの最新世代の大規模言語モデルで、包括的な密集型および混合エキスパート(MoE)モデルのセットを提供します。広範なトレーニングに基づき、Qwen3 は推論、指示遵守、エージェント能力、多言語対応において画期的な進歩を実現しています。" }, "alibaba/qwen-3-32b": { "description": "Qwen3 は Qwen シリーズの最新世代の大規模言語モデルで、包括的な密集型および混合エキスパート(MoE)モデルのセットを提供します。広範なトレーニングに基づき、Qwen3 は推論、指示遵守、エージェント能力、多言語対応において画期的な進歩を実現しています。" }, "alibaba/qwen3-coder": { "description": "Qwen3-Coder-480B-A35B-Instruct は Qwen シリーズで最もエージェント能力に優れたコードモデルであり、エージェントによるコーディング、ブラウザ操作、その他の基本的なコーディングタスクにおいて顕著な性能を発揮し、Claude Sonnet と同等の結果を達成しています。" }, "amazon/nova-lite": { "description": "非常に低コストで、画像、動画、テキスト入力を高速に処理するマルチモーダルモデルです。" }, "amazon/nova-micro": { "description": "テキストのみのモデルで、非常に低コストで最小遅延の応答を提供します。" }, "amazon/nova-pro": { "description": "高い能力を持つマルチモーダルモデルで、正確性、速度、コストの最適なバランスを実現し、幅広いタスクに適しています。" }, "amazon/titan-embed-text-v2": { "description": "Amazon Titan Text Embeddings V2 は軽量で効率的な多言語埋め込みモデルで、1024、512、256次元をサポートします。" }, "anthropic.claude-3-5-sonnet-20240620-v1:0": { "description": "Claude 3.5 Sonnetは業界標準を向上させ、競合モデルやClaude 3 Opusを超える性能を持ち、広範な評価で優れたパフォーマンスを示し、私たちの中程度のモデルの速度とコストを兼ね備えています。" }, "anthropic.claude-3-5-sonnet-20241022-v2:0": { "description": "Claude 3.5 Sonnetは業界標準を引き上げ、競合モデルやClaude 3 Opusを上回る性能を発揮し、広範な評価で優れた結果を示しています。また、中程度のレベルのモデルと同等の速度とコストを持っています。" }, "anthropic.claude-3-haiku-20240307-v1:0": { "description": "Claude 3 HaikuはAnthropicの最も速く、最もコンパクトなモデルで、ほぼ瞬時の応答速度を提供します。簡単なクエリやリクエストに迅速に回答できます。顧客は人間のインタラクションを模倣するシームレスなAI体験を構築できるようになります。Claude 3 Haikuは画像を処理し、テキスト出力を返すことができ、200Kのコンテキストウィンドウを持っています。" }, "anthropic.claude-3-opus-20240229-v1:0": { "description": "Claude 3 OpusはAnthropicの最も強力なAIモデルで、高度に複雑なタスクにおいて最先端の性能を持っています。オープンエンドのプロンプトや未見のシナリオを処理でき、優れた流暢さと人間の理解能力を持っています。Claude 3 Opusは生成AIの可能性の最前線を示しています。Claude 3 Opusは画像を処理し、テキスト出力を返すことができ、200Kのコンテキストウィンドウを持っています。" }, "anthropic.claude-3-sonnet-20240229-v1:0": { "description": "AnthropicのClaude 3 Sonnetは、知能と速度の理想的なバランスを実現しており、特に企業のワークロードに適しています。競合他社よりも低価格で最大の効用を提供し、信頼性が高く耐久性のある主力機として設計されており、スケール化されたAIデプロイメントに適しています。Claude 3 Sonnetは画像を処理し、テキスト出力を返すことができ、200Kのコンテキストウィンドウを持っています。" }, "anthropic.claude-instant-v1": { "description": "日常の対話、テキスト分析、要約、文書質問応答などの一連のタスクを処理できる、迅速で経済的かつ非常に能力のあるモデルです。" }, "anthropic.claude-v2": { "description": "Anthropicは、複雑な対話や創造的なコンテンツ生成から詳細な指示の遵守に至るまで、幅広いタスクで高い能力を発揮するモデルです。" }, "anthropic.claude-v2:1": { "description": "Claude 2の更新版で、コンテキストウィンドウが2倍になり、長文書やRAGコンテキストにおける信頼性、幻覚率、証拠に基づく正確性が改善されています。" }, "anthropic/claude-3-haiku": { "description": "Claude 3 Haiku は Anthropic の中で最も高速なモデルで、通常長いプロンプトを伴う企業向けワークロードに特化しています。Haiku は四半期報告書、契約書、法的案件など大量の文書を迅速に分析でき、そのコストは同クラスの他モデルの半分です。" }, "anthropic/claude-3-opus": { "description": "Claude 3 Opus は Anthropic の最も知能的なモデルで、高度に複雑なタスクにおいて市場をリードする性能を持ちます。卓越した流暢さと人間に近い理解力で、オープンプロンプトや未経験のシナリオを自在に扱います。" }, "anthropic/claude-3.5-haiku": { "description": "Claude 3.5 Haiku は当社の最速モデルの次世代版です。Claude 3 Haiku と同等の速度を維持しつつ、すべてのスキルセットで改善され、多くの知能ベンチマークで前世代最大モデル Claude 3 Opus を上回っています。" }, "anthropic/claude-3.5-sonnet": { "description": "Claude 3.5 Sonnet は知能と速度の理想的なバランスを実現し、特に企業向けワークロードに適しています。同等製品と比較して低コストで強力な性能を提供し、大規模AI展開における高耐久性を念頭に設計されています。" }, "anthropic/claude-3.7-sonnet": { "description": "Claude 3.7 Sonnet は初のハイブリッド推論モデルであり、Anthropic 史上最も知能的なモデルです。コーディング、コンテンツ生成、データ分析、計画タスクにおいて最先端の性能を提供し、前身の Claude 3.5 Sonnet のソフトウェア工学およびコンピュータ利用能力を基盤としています。" }, "anthropic/claude-opus-4": { "description": "Claude Opus 4 は Anthropic 史上最強のモデルであり、世界最高のコーディングモデルです。SWE-bench(72.5%)および Terminal-bench(43.2%)でトップを走っています。数千ステップに及ぶ長期タスクに持続的な性能を提供し、数時間連続稼働が可能で、AIエージェントの能力を大幅に拡張します。" }, "anthropic/claude-opus-4.1": { "description": "Claude Opus 4.1 は Opus 4 のプラグアンドプレイ代替モデルで、実際のコーディングおよびエージェントタスクに卓越した性能と精度を提供します。SWE-bench Verified で74.5%の最先端コーディング性能を達成し、複雑な多段階問題をより厳密かつ詳細に処理します。" }, "anthropic/claude-sonnet-4": { "description": "Claude Sonnet 4 は Sonnet 3.7 の業界トップの能力を大幅に向上させ、コーディングで優れた性能を発揮し、SWE-bench で最先端の72.7%を達成しました。性能と効率のバランスが取れており、内部および外部のユースケースに適し、強化された制御性により実装の管理性が向上しています。" }, "anthropic/claude-sonnet-4.5": { "description": "Claude Sonnet 4.5 は Anthropic のこれまでで最も賢いモデルです。" }, "ascend-tribe/pangu-pro-moe": { "description": "Pangu-Pro-MoE 72B-A16B は、720億パラメータ、160億アクティベーションパラメータのスパース大規模言語モデルであり、グループ化された混合エキスパート(MoGE)アーキテクチャに基づいています。エキスパート選択段階でエキスパートをグループ化し、各グループ内でトークンが均等にエキスパートをアクティベートするよう制約を設けることで、エキスパートの負荷バランスを実現し、昇騰プラットフォーム上でのモデル展開効率を大幅に向上させています。" }, "aya": { "description": "Aya 23は、Cohereが提供する多言語モデルであり、23の言語をサポートし、多様な言語アプリケーションを便利にします。" }, "aya:35b": { "description": "Aya 23は、Cohereが提供する多言語モデルであり、23の言語をサポートし、多様な言語アプリケーションを便利にします。" }, "azure-DeepSeek-R1-0528": { "description": "Microsoftによって展開されています。DeepSeek R1モデルはマイナーバージョンアップが行われ、現在のバージョンはDeepSeek-R1-0528です。最新のアップデートでは、計算リソースの増強と後訓練段階のアルゴリズム最適化メカニズムの導入により、推論の深さと推断能力が大幅に向上しました。このモデルは数学、プログラミング、一般的な論理など複数のベンチマークテストで優れた性能を示し、全体的なパフォーマンスはO3やGemini 2.5 Proなどの先進モデルに近づいています。" }, "baichuan-m2-32b": { "description": "Baichuan M2 32B は Baichuan Intelligence によって開発された混合エキスパートモデルで、優れた推論能力を備えています。" }, "baichuan/baichuan2-13b-chat": { "description": "Baichuan-13Bは百川智能が開発した130億パラメータを持つオープンソースの商用大規模言語モデルで、権威ある中国語と英語のベンチマークで同サイズの中で最良の結果を達成しています。" }, "baidu/ERNIE-4.5-300B-A47B": { "description": "ERNIE-4.5-300B-A47B は、百度(Baidu)が開発した混合エキスパート(MoE)アーキテクチャに基づく大規模言語モデルです。総パラメータ数は3000億ですが、推論時には各トークンで470億パラメータのみをアクティベートし、強力な性能を維持しつつ計算効率も両立しています。ERNIE 4.5シリーズの中核モデルの一つとして、テキスト理解、生成、推論、プログラミングなどのタスクで卓越した能力を発揮します。本モデルは革新的なマルチモーダル異種MoE事前学習手法を採用し、テキストと視覚モダリティの共同学習により、特に指示遵守と世界知識の記憶において優れた効果を発揮しています。" }, "c4ai-aya-expanse-32b": { "description": "Aya Expanseは、高性能な32B多言語モデルで、指示調整、データアービトラージ、好みのトレーニング、モデル統合の革新を通じて、単一言語モデルのパフォーマンスに挑戦します。23の言語をサポートしています。" }, "c4ai-aya-expanse-8b": { "description": "Aya Expanseは、高性能な8B多言語モデルで、指示調整、データアービトラージ、好みのトレーニング、モデル統合の革新を通じて、単一言語モデルのパフォーマンスに挑戦します。23の言語をサポートしています。" }, "c4ai-aya-vision-32b": { "description": "Aya Visionは、最先端のマルチモーダルモデルで、言語、テキスト、画像能力の複数の重要なベンチマークで優れたパフォーマンスを発揮します。23の言語をサポートしています。この320億パラメータのバージョンは、最先端の多言語パフォーマンスに焦点を当てています。" }, "c4ai-aya-vision-8b": { "description": "Aya Visionは、最先端のマルチモーダルモデルで、言語、テキスト、画像能力の複数の重要なベンチマークで優れたパフォーマンスを発揮します。この80億パラメータのバージョンは、低遅延と最適なパフォーマンスに焦点を当てています。" }, "charglm-3": { "description": "CharGLM-3はキャラクター演技と感情的な伴侶のために設計されており、超長期の多段階記憶と個別化された対話をサポートし、幅広い用途に適しています。" }, "charglm-4": { "description": "CharGLM-4はキャラクター演技と感情的な伴侶のために設計されており、超長期の多回記憶と個別化された対話をサポートし、幅広い応用があります。" }, "chatgpt-4o-latest": { "description": "ChatGPT-4oは、リアルタイムで更新される動的モデルで、常に最新のバージョンを維持します。強力な言語理解と生成能力を組み合わせており、顧客サービス、教育、技術サポートなどの大規模なアプリケーションシナリオに適しています。" }, "claude-2.0": { "description": "Claude 2は、業界をリードする200Kトークンのコンテキスト、モデルの幻覚の発生率を大幅に低下させる、システムプロンプト、および新しいテスト機能:ツール呼び出しを含む、企業にとって重要な能力の進歩を提供します。" }, "claude-2.1": { "description": "Claude 2は、業界をリードする200Kトークンのコンテキスト、モデルの幻覚の発生率を大幅に低下させる、システムプロンプト、および新しいテスト機能:ツール呼び出しを含む、企業にとって重要な能力の進歩を提供します。" }, "claude-3-5-haiku-20241022": { "description": "Claude 3.5 Haikuは、Anthropicの最も高速な次世代モデルです。Claude 3 Haikuと比較して、Claude 3.5 Haikuはすべてのスキルで向上しており、多くの知能ベンチマークテストで前の世代の最大モデルであるClaude 3 Opusを超えています。" }, "claude-3-5-haiku-latest": { "description": "Claude 3.5 Haiku は迅速な応答を提供し、軽量なタスクに適しています。" }, "claude-3-5-sonnet-20240620": { "description": "Claude 3.5 Sonnetは、Opusを超える能力とSonnetよりも速い速度を提供し、Sonnetと同じ価格を維持します。Sonnetは特にプログラミング、データサイエンス、視覚処理、エージェントタスクに優れています。" }, "claude-3-5-sonnet-20241022": { "description": "Claude 3.5 Sonnetは、Opusを超える能