@lobehub/chat
Version:
Lobe Chat - an open-source, high-performance chatbot framework that supports speech synthesis, multimodal, and extensible Function Call plugin system. Supports one-click free deployment of your private ChatGPT/LLM web application.
855 lines • 235 kB
JSON
{
"01-ai/yi-1.5-34b-chat": {
"description": "제로일 만물, 최신 오픈 소스 미세 조정 모델로, 340억 개의 매개변수를 가지고 있으며, 다양한 대화 시나리오를 지원하는 미세 조정, 고품질 훈련 데이터, 인간의 선호에 맞춘 조정을 제공합니다."
},
"01-ai/yi-1.5-9b-chat": {
"description": "제로일 만물, 최신 오픈 소스 미세 조정 모델로, 90억 개의 매개변수를 가지고 있으며, 다양한 대화 시나리오를 지원하는 미세 조정, 고품질 훈련 데이터, 인간의 선호에 맞춘 조정을 제공합니다."
},
"360/deepseek-r1": {
"description": "【360 배포판】DeepSeek-R1은 후 훈련 단계에서 대규모로 강화 학습 기술을 사용하여, 극히 적은 주석 데이터로도 모델 추론 능력을 크게 향상시켰습니다. 수학, 코드, 자연어 추론 등의 작업에서 OpenAI o1 정식 버전과 동등한 성능을 자랑합니다."
},
"360gpt-pro": {
"description": "360GPT Pro는 360 AI 모델 시리즈의 중요한 구성원으로, 다양한 자연어 응용 시나리오에 맞춘 효율적인 텍스트 처리 능력을 갖추고 있으며, 긴 텍스트 이해 및 다중 회화 기능을 지원합니다."
},
"360gpt-pro-trans": {
"description": "번역 전용 모델로, 깊이 있는 미세 조정 최적화가 이루어져 있으며, 번역 효과가 뛰어납니다."
},
"360gpt-turbo": {
"description": "360GPT Turbo는 강력한 계산 및 대화 능력을 제공하며, 뛰어난 의미 이해 및 생성 효율성을 갖추고 있어 기업 및 개발자에게 이상적인 스마트 어시스턴트 솔루션입니다."
},
"360gpt-turbo-responsibility-8k": {
"description": "360GPT Turbo Responsibility 8K는 의미 안전성과 책임 지향성을 강조하며, 콘텐츠 안전에 대한 높은 요구가 있는 응용 시나리오를 위해 설계되어 사용자 경험의 정확성과 안정성을 보장합니다."
},
"360gpt2-o1": {
"description": "360gpt2-o1은 트리 탐색을 사용하여 사고 체인을 구축하고 반성 메커니즘을 도입하였으며, 강화 학습을 통해 훈련되어 자기 반성과 오류 수정 능력을 갖추고 있습니다."
},
"360gpt2-pro": {
"description": "360GPT2 Pro는 360 회사에서 출시한 고급 자연어 처리 모델로, 뛰어난 텍스트 생성 및 이해 능력을 갖추고 있으며, 특히 생성 및 창작 분야에서 뛰어난 성능을 발휘하여 복잡한 언어 변환 및 역할 연기 작업을 처리할 수 있습니다."
},
"360zhinao2-o1": {
"description": "360zhinao2-o1은 트리 탐색을 사용하여 사고 체인을 구축하고 반성 메커니즘을 도입하여 강화 학습으로 훈련되며, 모델은 자기 반성과 오류 수정 능력을 갖추고 있습니다."
},
"4.0Ultra": {
"description": "Spark4.0 Ultra는 스타크 대형 모델 시리즈 중 가장 강력한 버전으로, 업그레이드된 네트워크 검색 링크와 함께 텍스트 내용의 이해 및 요약 능력을 향상시킵니다. 사무 생산성을 높이고 정확한 요구에 응답하기 위한 종합 솔루션으로, 업계를 선도하는 스마트 제품입니다."
},
"Baichuan2-Turbo": {
"description": "검색 강화 기술을 통해 대형 모델과 분야 지식, 전 세계 지식의 완전한 연결을 실현합니다. PDF, Word 등 다양한 문서 업로드 및 웹사이트 입력을 지원하며, 정보 획득이 신속하고 포괄적이며, 출력 결과가 정확하고 전문적입니다."
},
"Baichuan3-Turbo": {
"description": "기업의 고빈도 시나리오에 최적화되어 효과가 크게 향상되었으며, 높은 비용 효율성을 자랑합니다. Baichuan2 모델에 비해 콘텐츠 창작이 20%, 지식 질문 응답이 17%, 역할 수행 능력이 40% 향상되었습니다. 전체적인 성능은 GPT3.5보다 우수합니다."
},
"Baichuan3-Turbo-128k": {
"description": "128K 초장기 컨텍스트 창을 갖추고 있으며, 기업의 고빈도 시나리오에 최적화되어 효과가 크게 향상되었으며, 높은 비용 효율성을 자랑합니다. Baichuan2 모델에 비해 콘텐츠 창작이 20%, 지식 질문 응답이 17%, 역할 수행 능력이 40% 향상되었습니다. 전체적인 성능은 GPT3.5보다 우수합니다."
},
"Baichuan4": {
"description": "모델 능력 국내 1위로, 지식 백과, 긴 텍스트, 생성 창작 등 중국어 작업에서 해외 주류 모델을 초월합니다. 또한 업계 선도적인 다중 모달 능력을 갖추고 있으며, 여러 권위 있는 평가 기준에서 우수한 성과를 보입니다."
},
"Baichuan4-Air": {
"description": "모델 능력이 국내 1위이며, 지식 백과, 긴 텍스트, 생성 창작 등 중국어 작업에서 해외 주류 모델을 초월합니다. 또한 업계 선도적인 다중 모달 능력을 갖추고 있으며, 여러 권위 있는 평가 기준에서 우수한 성과를 보입니다."
},
"Baichuan4-Turbo": {
"description": "모델 능력이 국내 1위이며, 지식 백과, 긴 텍스트, 생성 창작 등 중국어 작업에서 해외 주류 모델을 초월합니다. 또한 업계 선도적인 다중 모달 능력을 갖추고 있으며, 여러 권위 있는 평가 기준에서 우수한 성과를 보입니다."
},
"DeepSeek-R1": {
"description": "최첨단 효율적인 LLM으로, 추론, 수학 및 프로그래밍에 능숙합니다."
},
"DeepSeek-R1-Distill-Llama-70B": {
"description": "DeepSeek R1——DeepSeek 패키지에서 더 크고 더 스마트한 모델——이 Llama 70B 아키텍처로 증류되었습니다. 기준 테스트와 인공지능 평가에 따르면, 이 모델은 원래 Llama 70B보다 더 스마트하며, 특히 수학 및 사실 정확성이 필요한 작업에서 뛰어난 성능을 보입니다."
},
"DeepSeek-R1-Distill-Qwen-1.5B": {
"description": "Qwen2.5-Math-1.5B를 기반으로 한 DeepSeek-R1 증류 모델로, 강화 학습과 콜드 스타트 데이터를 통해 추론 성능을 최적화하며, 오픈 소스 모델로 다중 작업 기준을 갱신합니다."
},
"DeepSeek-R1-Distill-Qwen-14B": {
"description": "Qwen2.5-14B를 기반으로 한 DeepSeek-R1 증류 모델로, 강화 학습과 콜드 스타트 데이터를 통해 추론 성능을 최적화하며, 오픈 소스 모델로 다중 작업 기준을 갱신합니다."
},
"DeepSeek-R1-Distill-Qwen-32B": {
"description": "DeepSeek-R1 시리즈는 강화 학습과 콜드 스타트 데이터를 통해 추론 성능을 최적화하며, 오픈 소스 모델로 다중 작업 기준을 갱신하고 OpenAI-o1-mini 수준을 초월합니다."
},
"DeepSeek-R1-Distill-Qwen-7B": {
"description": "Qwen2.5-Math-7B를 기반으로 한 DeepSeek-R1 증류 모델로, 강화 학습과 콜드 스타트 데이터를 통해 추론 성능을 최적화하며, 오픈 소스 모델로 다중 작업 기준을 갱신합니다."
},
"DeepSeek-V3": {
"description": "DeepSeek-V3는 심층 탐색 회사에서 자체 개발한 MoE 모델입니다. DeepSeek-V3는 여러 평가에서 Qwen2.5-72B 및 Llama-3.1-405B와 같은 다른 오픈 소스 모델을 초월하며, 성능 면에서 세계 최고의 폐쇄형 모델인 GPT-4o 및 Claude-3.5-Sonnet과 동등합니다."
},
"Doubao-1.5-thinking-pro-m": {
"description": "Doubao-1.5는 새로운 깊은 사고 모델(m 버전은 원래 다중 모달 깊은 추론 능력을 갖추고 있음)로, 수학, 프로그래밍, 과학 추론 등 전문 분야 및 창의적 작문 등 일반 작업에서 뛰어난 성능을 보이며, AIME 2024, Codeforces, GPQA 등 여러 권위 있는 벤치마크에서 업계 1위 수준에 도달하거나 근접했습니다. 128k 맥락 창 및 16k 출력을 지원합니다."
},
"Doubao-1.5-thinking-vision-pro": {
"description": "새로운 비주얼 심층 사고 모델로, 더 강력한 일반 다중 모달 이해 및 추론 능력을 갖추고 있으며, 59개의 공개 평가 기준 중 37개에서 SOTA 성과를 달성했습니다."
},
"Doubao-1.5-vision-pro": {
"description": "Doubao-1.5-vision-pro는 새롭게 업그레이드된 다중 모드 대모델로, 임의의 해상도와 극단적인 가로 세로 비율의 이미지 인식을 지원하며, 시각적 추론, 문서 인식, 세부 정보 이해 및 지시 준수 능력을 강화합니다."
},
"Doubao-1.5-vision-pro-32k": {
"description": "Doubao-1.5-vision-pro는 새롭게 업그레이드된 다중 모달 대형 모델로, 임의의 해상도와 극단적인 가로 세로 비율의 이미지 인식을 지원하며, 시각적 추론, 문서 인식, 세부 정보 이해 및 지시 준수 능력을 강화했습니다."
},
"Doubao-lite-128k": {
"description": "Doubao-lite는 극한의 응답 속도와 더 나은 가격 대비 성능을 자랑하며, 고객의 다양한 상황에 유연한 선택을 제공합니다. 128k 컨텍스트 윈도우의 추론 및 세부 조정을 지원합니다."
},
"Doubao-lite-32k": {
"description": "Doubao-lite는 극한의 응답 속도와 더 나은 가격 대비 성능을 자랑하며, 고객의 다양한 상황에 유연한 선택을 제공합니다. 32k 컨텍스트 윈도우의 추론 및 세부 조정을 지원합니다."
},
"Doubao-lite-4k": {
"description": "Doubao-lite는 극한의 응답 속도와 더 나은 가격 대비 성능을 자랑하며, 고객의 다양한 상황에 유연한 선택을 제공합니다. 4k 컨텍스트 윈도우의 추론 및 세부 조정을 지원합니다."
},
"Doubao-pro-128k": {
"description": "가장 효과적인 주력 모델로, 복잡한 작업 처리에 적합하며, 참고 질문, 요약, 창작, 텍스트 분류, 역할 수행 등 많은 장면에서 뛰어난 성과를 보입니다. 128k 컨텍스트 윈도우의 추론 및 세부 조정을 지원합니다."
},
"Doubao-pro-256k": {
"description": "가장 효과적인 주력 모델로, 복잡한 작업 처리에 적합하며, 참고 질문 응답, 요약, 창작, 텍스트 분류, 역할 수행 등 다양한 상황에서 좋은 성과를 보입니다. 256k의 컨텍스트 윈도우 추론 및 미세 조정을 지원합니다."
},
"Doubao-pro-32k": {
"description": "가장 효과적인 주력 모델로, 복잡한 작업 처리에 적합하며, 참고 질문, 요약, 창작, 텍스트 분류, 역할 수행 등 많은 장면에서 뛰어난 성과를 보입니다. 32k 컨텍스트 윈도우의 추론 및 세부 조정을 지원합니다."
},
"Doubao-pro-4k": {
"description": "가장 효과적인 주력 모델로, 복잡한 작업 처리에 적합하며, 참고 질문, 요약, 창작, 텍스트 분류, 역할 수행 등 많은 장면에서 뛰어난 성과를 보입니다. 4k 컨텍스트 윈도우의 추론 및 세부 조정을 지원합니다."
},
"Doubao-vision-lite-32k": {
"description": "Doubao-vision 모델은 Doubao에서 출시한 다중 모달 대형 모델로, 강력한 이미지 이해 및 추론 능력과 정확한 지시 이해 능력을 갖추고 있습니다. 이 모델은 이미지 텍스트 정보 추출 및 이미지 기반 추론 작업에서 강력한 성능을 보여주며, 더 복잡하고 넓은 시각적 질문 응답 작업에 적용될 수 있습니다."
},
"Doubao-vision-pro-32k": {
"description": "Doubao-vision 모델은 Doubao에서 출시한 다중 모달 대형 모델로, 강력한 이미지 이해 및 추론 능력과 정확한 지시 이해 능력을 갖추고 있습니다. 이 모델은 이미지 텍스트 정보 추출 및 이미지 기반 추론 작업에서 강력한 성능을 보여주며, 더 복잡하고 넓은 시각적 질문 응답 작업에 적용될 수 있습니다."
},
"ERNIE-3.5-128K": {
"description": "바이두가 자체 개발한 플래그십 대규모 언어 모델로, 방대한 중문 및 영문 코퍼스를 포함하고 있으며, 강력한 일반 능력을 갖추고 있어 대부분의 대화형 질문 응답, 창작 생성, 플러그인 응용 시나리오 요구를 충족할 수 있습니다. 또한 바이두 검색 플러그인과의 자동 연동을 지원하여 질문 응답 정보의 시의성을 보장합니다."
},
"ERNIE-3.5-8K": {
"description": "바이두가 자체 개발한 플래그십 대규모 언어 모델로, 방대한 중문 및 영문 코퍼스를 포함하고 있으며, 강력한 일반 능력을 갖추고 있어 대부분의 대화형 질문 응답, 창작 생성, 플러그인 응용 시나리오 요구를 충족할 수 있습니다. 또한 바이두 검색 플러그인과의 자동 연동을 지원하여 질문 응답 정보의 시의성을 보장합니다."
},
"ERNIE-3.5-8K-Preview": {
"description": "바이두가 자체 개발한 플래그십 대규모 언어 모델로, 방대한 중문 및 영문 코퍼스를 포함하고 있으며, 강력한 일반 능력을 갖추고 있어 대부분의 대화형 질문 응답, 창작 생성, 플러그인 응용 시나리오 요구를 충족할 수 있습니다. 또한 바이두 검색 플러그인과의 자동 연동을 지원하여 질문 응답 정보의 시의성을 보장합니다."
},
"ERNIE-4.0-8K-Latest": {
"description": "바이두가 자체 개발한 플래그십 초대규모 언어 모델로, ERNIE 3.5에 비해 모델 능력이 전면적으로 업그레이드되었으며, 다양한 분야의 복잡한 작업 시나리오에 널리 적용됩니다. 자동으로 바이두 검색 플러그인과 연결되어 질문 응답 정보의 시의성을 보장합니다."
},
"ERNIE-4.0-8K-Preview": {
"description": "바이두가 자체 개발한 플래그십 초대규모 언어 모델로, ERNIE 3.5에 비해 모델 능력이 전면적으로 업그레이드되었으며, 다양한 분야의 복잡한 작업 시나리오에 널리 적용됩니다. 자동으로 바이두 검색 플러그인과 연결되어 질문 응답 정보의 시의성을 보장합니다."
},
"ERNIE-4.0-Turbo-8K-Latest": {
"description": "바이두가 개발한 플래그십 대규모 언어 모델로, 다양한 분야의 복잡한 작업 환경에서 뛰어난 종합 효과를 보여줍니다. 바이두 검색 플러그인 자동 연결을 지원하여 질문과 답변 정보의 시의성을 보장합니다. ERNIE 4.0에 비해 성능이 더욱 우수합니다."
},
"ERNIE-4.0-Turbo-8K-Preview": {
"description": "바이두가 자체 개발한 플래그십 초대규모 언어 모델로, 종합적인 성능이 뛰어나며, 다양한 분야의 복잡한 작업 시나리오에 널리 적용됩니다. 자동으로 바이두 검색 플러그인과 연결되어 질문 응답 정보의 시의성을 보장합니다. ERNIE 4.0에 비해 성능이 더욱 우수합니다."
},
"ERNIE-Character-8K": {
"description": "바이두가 자체 개발한 수직 장면 대언어 모델로, 게임 NPC, 고객 서비스 대화, 대화 역할 수행 등 다양한 응용 시나리오에 적합하며, 캐릭터 스타일이 더욱 뚜렷하고 일관되며, 지시 준수 능력이 더 강하고, 추론 성능이 우수합니다."
},
"ERNIE-Lite-Pro-128K": {
"description": "바이두가 자체 개발한 경량 대언어 모델로, 우수한 모델 효과와 추론 성능을 겸비하고 있으며, ERNIE Lite보다 더 나은 성능을 보여 저전력 AI 가속 카드에서의 추론 사용에 적합합니다."
},
"ERNIE-Speed-128K": {
"description": "바이두가 2024년에 최신 발표한 자체 개발 고성능 대언어 모델로, 일반 능력이 뛰어나며, 특정 시나리오 문제를 더 잘 처리하기 위해 기본 모델로 조정하는 데 적합하며, 뛰어난 추론 성능을 갖추고 있습니다."
},
"ERNIE-Speed-Pro-128K": {
"description": "바이두가 2024년에 최신 발표한 자체 개발 고성능 대언어 모델로, 일반 능력이 뛰어나며, ERNIE Speed보다 더 나은 성능을 보여 특정 시나리오 문제를 더 잘 처리하기 위해 기본 모델로 조정하는 데 적합하며, 뛰어난 추론 성능을 갖추고 있습니다."
},
"Gryphe/MythoMax-L2-13b": {
"description": "MythoMax-L2 (13B)는 혁신적인 모델로, 다양한 분야의 응용과 복잡한 작업에 적합합니다."
},
"InternVL2-8B": {
"description": "InternVL2-8B는 강력한 비주얼 언어 모델로, 이미지와 텍스트의 다중 모달 처리를 지원하며, 이미지 내용을 정확하게 인식하고 관련 설명이나 답변을 생성할 수 있습니다."
},
"InternVL2.5-26B": {
"description": "InternVL2.5-26B는 강력한 비주얼 언어 모델로, 이미지와 텍스트의 다중 모달 처리를 지원하며, 이미지 내용을 정확하게 인식하고 관련 설명이나 답변을 생성할 수 있습니다."
},
"Llama-3.2-11B-Vision-Instruct": {
"description": "고해상도 이미지에서 뛰어난 이미지 추론 능력을 보여주며, 시각적 이해 응용 프로그램에 적합합니다."
},
"Llama-3.2-90B-Vision-Instruct\t": {
"description": "시각적 이해 에이전트 응용 프로그램에 적합한 고급 이미지 추론 능력입니다."
},
"Meta-Llama-3.1-405B-Instruct": {
"description": "Llama 3.1 지시 조정 텍스트 모델로, 다국어 대화 사용 사례에 최적화되어 있으며, 많은 오픈 소스 및 폐쇄형 채팅 모델 중에서 일반 산업 기준에서 우수한 성능을 보입니다."
},
"Meta-Llama-3.1-70B-Instruct": {
"description": "Llama 3.1 지시 조정 텍스트 모델로, 다국어 대화 사용 사례에 최적화되어 있으며, 많은 오픈 소스 및 폐쇄형 채팅 모델 중에서 일반 산업 기준에서 우수한 성능을 보입니다."
},
"Meta-Llama-3.1-8B-Instruct": {
"description": "Llama 3.1 지시 조정 텍스트 모델로, 다국어 대화 사용 사례에 최적화되어 있으며, 많은 오픈 소스 및 폐쇄형 채팅 모델 중에서 일반 산업 기준에서 우수한 성능을 보입니다."
},
"Meta-Llama-3.2-1B-Instruct": {
"description": "언어 이해, 뛰어난 추론 능력 및 텍스트 생성 능력을 갖춘 최첨단 소형 언어 모델입니다."
},
"Meta-Llama-3.2-3B-Instruct": {
"description": "언어 이해, 뛰어난 추론 능력 및 텍스트 생성 능력을 갖춘 최첨단 소형 언어 모델입니다."
},
"Meta-Llama-3.3-70B-Instruct": {
"description": "Llama 3.3은 Llama 시리즈에서 가장 진보된 다국어 오픈 소스 대형 언어 모델로, 매우 낮은 비용으로 405B 모델의 성능을 경험할 수 있습니다. Transformer 구조를 기반으로 하며, 감독 미세 조정(SFT)과 인간 피드백 강화 학습(RLHF)을 통해 유용성과 안전성을 향상시켰습니다. 그 지시 조정 버전은 다국어 대화를 위해 최적화되어 있으며, 여러 산업 기준에서 많은 오픈 소스 및 폐쇄형 채팅 모델보다 우수한 성능을 보입니다. 지식 마감일은 2023년 12월입니다."
},
"MiniMax-M1": {
"description": "완전히 새로 개발된 추론 모델입니다. 세계 최고 수준: 80K 사고 체인 x 1M 입력, 해외 최상위 모델과 견줄 만한 성능을 자랑합니다."
},
"MiniMax-Text-01": {
"description": "MiniMax-01 시리즈 모델에서는 대담한 혁신을 이루었습니다: 대규모로 선형 주의 메커니즘을 처음으로 구현하였으며, 전통적인 Transformer 아키텍처가 더 이상 유일한 선택이 아닙니다. 이 모델의 파라미터 수는 4560억에 달하며, 단일 활성화는 45.9억입니다. 모델의 종합 성능은 해외 최고의 모델과 견줄 수 있으며, 전 세계에서 가장 긴 400만 토큰의 문맥을 효율적으로 처리할 수 있습니다. 이는 GPT-4o의 32배, Claude-3.5-Sonnet의 20배에 해당합니다."
},
"MiniMaxAI/MiniMax-M1-80k": {
"description": "MiniMax-M1은 오픈 소스 가중치를 가진 대규모 혼합 주의 추론 모델로, 4,560억 개의 파라미터를 보유하고 있으며, 각 토큰당 약 459억 개의 파라미터가 활성화됩니다. 모델은 100만 토큰의 초장기 문맥을 원활히 지원하며, 번개 주의 메커니즘을 통해 10만 토큰 생성 작업에서 DeepSeek R1 대비 75%의 부동 소수점 연산량을 절감합니다. 또한 MiniMax-M1은 MoE(혼합 전문가) 아키텍처를 채택하고, CISPO 알고리즘과 혼합 주의 설계가 결합된 효율적인 강화 학습 훈련을 통해 긴 입력 추론과 실제 소프트웨어 엔지니어링 환경에서 업계 선도적인 성능을 구현합니다."
},
"NousResearch/Nous-Hermes-2-Mixtral-8x7B-DPO": {
"description": "Nous Hermes 2 - Mixtral 8x7B-DPO (46.7B)는 고정밀 지시 모델로, 복잡한 계산에 적합합니다."
},
"Phi-3-medium-128k-instruct": {
"description": "같은 Phi-3-medium 모델이지만 RAG 또는 몇 가지 샷 프롬프트를 위한 더 큰 컨텍스트 크기를 가지고 있습니다."
},
"Phi-3-medium-4k-instruct": {
"description": "14B 매개변수 모델로, Phi-3-mini보다 더 나은 품질을 제공하며, 고품질의 추론 밀집 데이터에 중점을 두고 있습니다."
},
"Phi-3-mini-128k-instruct": {
"description": "같은 Phi-3-mini 모델이지만 RAG 또는 몇 가지 샷 프롬프트를 위한 더 큰 컨텍스트 크기를 가지고 있습니다."
},
"Phi-3-mini-4k-instruct": {
"description": "Phi-3 가족의 가장 작은 구성원으로, 품질과 낮은 대기 시간 모두에 최적화되어 있습니다."
},
"Phi-3-small-128k-instruct": {
"description": "같은 Phi-3-small 모델이지만 RAG 또는 몇 가지 샷 프롬프트를 위한 더 큰 컨텍스트 크기를 가지고 있습니다."
},
"Phi-3-small-8k-instruct": {
"description": "7B 매개변수 모델로, Phi-3-mini보다 더 나은 품질을 제공하며, 고품질의 추론 밀집 데이터에 중점을 두고 있습니다."
},
"Phi-3.5-mini-instruct": {
"description": "Phi-3-mini 모델의 업데이트된 버전입니다."
},
"Phi-3.5-vision-instrust": {
"description": "Phi-3-vision 모델의 업데이트된 버전입니다."
},
"Pro/Qwen/Qwen2-7B-Instruct": {
"description": "Qwen2-7B-Instruct는 Qwen2 시리즈의 지침 미세 조정 대규모 언어 모델로, 파라미터 규모는 7B입니다. 이 모델은 Transformer 아키텍처를 기반으로 하며, SwiGLU 활성화 함수, 주의 QKV 편향 및 그룹 쿼리 주의와 같은 기술을 사용합니다. 이 모델은 대규모 입력을 처리할 수 있습니다. 이 모델은 언어 이해, 생성, 다국어 능력, 코딩, 수학 및 추론 등 여러 벤치마크 테스트에서 뛰어난 성능을 보이며, 대부분의 오픈 소스 모델을 초월하고 특정 작업에서 독점 모델과 동등한 경쟁력을 보여줍니다. Qwen2-7B-Instruct는 여러 평가에서 Qwen1.5-7B-Chat보다 우수하여 상당한 성능 향상을 보였습니다."
},
"Pro/Qwen/Qwen2.5-7B-Instruct": {
"description": "Qwen2.5-7B-Instruct는 Alibaba Cloud에서 발표한 최신 대규모 언어 모델 시리즈 중 하나입니다. 이 7B 모델은 코딩 및 수학 분야에서 상당한 개선된 능력을 가지고 있습니다. 이 모델은 또한 29개 이상의 언어를 포함한 다국어 지원을 제공합니다. 모델은 지침 준수, 구조화된 데이터 이해 및 구조화된 출력 생성(특히 JSON)에서 상당한 향상을 보입니다."
},
"Pro/Qwen/Qwen2.5-Coder-7B-Instruct": {
"description": "Qwen2.5-Coder-7B-Instruct는 Alibaba Cloud에서 발표한 코드 특화 대규모 언어 모델 시리즈의 최신 버전입니다. 이 모델은 Qwen2.5를 기반으로 하여 55조 개의 토큰으로 훈련되어 코드 생성, 추론 및 수정 능력을 크게 향상시켰습니다. 이 모델은 코딩 능력을 강화할 뿐만 아니라 수학 및 일반 능력의 장점도 유지합니다. 모델은 코드 에이전트와 같은 실제 응용 프로그램에 더 포괄적인 기반을 제공합니다."
},
"Pro/Qwen/Qwen2.5-VL-7B-Instruct": {
"description": "Qwen2.5-VL은 Qwen 시리즈의 새로운 멤버로, 강력한 시각 이해 능력을 갖추고 있습니다. 이미지 내 텍스트, 차트, 레이아웃을 분석할 수 있으며, 긴 동영상을 이해하고 이벤트를 포착할 수 있습니다. 추론을 수행하고 도구를 조작할 수 있으며, 다중 형식 객체 위치 지정과 구조화된 출력 생성을 지원합니다. 동영상 이해를 위한 동적 해상도 및 프레임 속도 훈련이 최적화되었으며, 시각 인코더 효율성이 향상되었습니다."
},
"Pro/THUDM/glm-4-9b-chat": {
"description": "GLM-4-9B-Chat은 Zhizhu AI가 출시한 GLM-4 시리즈의 사전 훈련 모델 중 오픈 소스 버전입니다. 이 모델은 의미, 수학, 추론, 코드 및 지식 등 여러 측면에서 뛰어난 성능을 보입니다. GLM-4-9B-Chat은 다중 회전 대화를 지원할 뿐만 아니라 웹 브라우징, 코드 실행, 사용자 정의 도구 호출(Function Call) 및 긴 텍스트 추론과 같은 고급 기능도 갖추고 있습니다. 이 모델은 중국어, 영어, 일본어, 한국어 및 독일어를 포함한 26개 언어를 지원합니다. 여러 벤치마크 테스트에서 GLM-4-9B-Chat은 AlignBench-v2, MT-Bench, MMLU 및 C-Eval 등에서 뛰어난 성능을 보였습니다. 이 모델은 최대 128K의 컨텍스트 길이를 지원하며, 학술 연구 및 상업적 응용에 적합합니다."
},
"Pro/deepseek-ai/DeepSeek-R1": {
"description": "DeepSeek-R1은 강화 학습(RL) 기반의 추론 모델로, 모델 내의 반복성과 가독성 문제를 해결합니다. RL 이전에 DeepSeek-R1은 콜드 스타트 데이터를 도입하여 추론 성능을 더욱 최적화했습니다. 수학, 코드 및 추론 작업에서 OpenAI-o1과 유사한 성능을 보이며, 정교하게 설계된 훈련 방법을 통해 전체적인 효과를 향상시켰습니다."
},
"Pro/deepseek-ai/DeepSeek-R1-0120": {
"description": "DeepSeek-R1은 강화 학습(RL) 기반 추론 모델로, 모델 내 반복성과 가독성 문제를 해결했습니다. RL 이전에 콜드 스타트 데이터를 도입하여 추론 성능을 추가 최적화했으며, 수학, 코드, 추론 작업에서 OpenAI-o1과 유사한 성능을 보이고, 정교한 훈련 방법을 통해 전체 성능을 향상시켰습니다."
},
"Pro/deepseek-ai/DeepSeek-R1-Distill-Qwen-7B": {
"description": "DeepSeek-R1-Distill-Qwen-7B는 Qwen2.5-Math-7B를 기반으로 지식 증류를 통해 개발된 모델입니다. 이 모델은 DeepSeek-R1에서 생성된 80만 개의 선별된 샘플을 사용하여 미세 조정되었으며, 우수한 추론 능력을 보여줍니다. 다양한 벤치마크에서 뛰어난 성능을 발휘하며, MATH-500에서 92.8%의 정확도, AIME 2024에서 55.5%의 통과율, CodeForces에서 1189점을 기록하여 7B 규모 모델로서 강력한 수학 및 프로그래밍 능력을 입증했습니다."
},
"Pro/deepseek-ai/DeepSeek-V3": {
"description": "DeepSeek-V3는 6710억 개의 매개변수를 가진 혼합 전문가(MoE) 언어 모델로, 다중 헤드 잠재 주의(MLA) 및 DeepSeekMoE 아키텍처를 사용하여 보조 손실 없는 부하 균형 전략을 결합하여 추론 및 훈련 효율성을 최적화합니다. 14.8조 개의 고품질 토큰에서 사전 훈련을 수행하고 감독 미세 조정 및 강화 학습을 통해 DeepSeek-V3는 성능 면에서 다른 오픈 소스 모델을 초월하며, 선도적인 폐쇄형 모델에 근접합니다."
},
"Pro/deepseek-ai/DeepSeek-V3-1226": {
"description": "DeepSeek-V3는 6710억 개의 매개변수를 가진 혼합 전문가(MoE) 언어 모델로, 다중 헤드 잠재 주의(MLA) 및 DeepSeekMoE 아키텍처를 채택하고, 보조 손실 없는 부하 균형 전략을 결합하여 추론 및 훈련 효율성을 최적화합니다. 14.8조 개의 고품질 토큰에서 사전 훈련을 거치고 감독 미세 조정 및 강화 학습을 통해 DeepSeek-V3는 성능 면에서 다른 오픈 소스 모델을 초월하며, 선도적인 폐쇄형 모델에 근접합니다."
},
"QwQ-32B-Preview": {
"description": "QwQ-32B-Preview는 복잡한 대화 생성 및 맥락 이해 작업을 효율적으로 처리할 수 있는 혁신적인 자연어 처리 모델입니다."
},
"Qwen/QVQ-72B-Preview": {
"description": "QVQ-72B-Preview는 Qwen 팀이 개발한 시각적 추론 능력에 중점을 둔 연구 모델로, 복잡한 장면 이해 및 시각 관련 수학 문제 해결에서 독특한 장점을 가지고 있습니다."
},
"Qwen/QwQ-32B": {
"description": "QwQ는 Qwen 시리즈의 추론 모델입니다. 전통적인 지시 조정 모델과 비교할 때, QwQ는 사고 및 추론 능력을 갖추고 있어 하위 작업에서 특히 어려운 문제를 해결하는 데 있어 성능이 크게 향상됩니다. QwQ-32B는 중형 추론 모델로, 최신 추론 모델(예: DeepSeek-R1, o1-mini)과 비교할 때 경쟁력 있는 성능을 발휘합니다. 이 모델은 RoPE, SwiGLU, RMSNorm 및 Attention QKV bias와 같은 기술을 사용하며, 64층 네트워크 구조와 40개의 Q 주의 헤드(GQA 구조에서 KV는 8개)를 가지고 있습니다."
},
"Qwen/QwQ-32B-Preview": {
"description": "QwQ-32B-Preview는 Qwen의 최신 실험적 연구 모델로, AI 추론 능력을 향상시키는 데 중점을 두고 있습니다. 언어 혼합, 재귀 추론 등 복잡한 메커니즘을 탐구하며, 주요 장점으로는 강력한 추론 분석 능력, 수학 및 프로그래밍 능력이 포함됩니다. 동시에 언어 전환 문제, 추론 루프, 안전성 고려 및 기타 능력 차이와 같은 문제도 존재합니다."
},
"Qwen/Qwen2-72B-Instruct": {
"description": "Qwen2는 다양한 지시 유형을 지원하는 고급 범용 언어 모델입니다."
},
"Qwen/Qwen2-7B-Instruct": {
"description": "Qwen2-72B-Instruct는 Qwen2 시리즈의 지침 미세 조정 대규모 언어 모델로, 파라미터 규모는 72B입니다. 이 모델은 Transformer 아키텍처를 기반으로 하며, SwiGLU 활성화 함수, 주의 QKV 편향 및 그룹 쿼리 주의와 같은 기술을 사용합니다. 이 모델은 대규모 입력을 처리할 수 있습니다. 이 모델은 언어 이해, 생성, 다국어 능력, 코딩, 수학 및 추론 등 여러 벤치마크 테스트에서 뛰어난 성능을 보이며, 대부분의 오픈 소스 모델을 초월하고 특정 작업에서 독점 모델과 동등한 경쟁력을 보여줍니다."
},
"Qwen/Qwen2-VL-72B-Instruct": {
"description": "Qwen2-VL은 Qwen-VL 모델의 최신 반복 버전으로, 시각 이해 기준 테스트에서 최첨단 성능을 달성했습니다."
},
"Qwen/Qwen2.5-14B-Instruct": {
"description": "Qwen2.5는 지시형 작업 처리를 최적화하기 위해 설계된 새로운 대형 언어 모델 시리즈입니다."
},
"Qwen/Qwen2.5-32B-Instruct": {
"description": "Qwen2.5는 지시형 작업 처리를 최적화하기 위해 설계된 새로운 대형 언어 모델 시리즈입니다."
},
"Qwen/Qwen2.5-72B-Instruct": {
"description": "알리바바 클라우드 통의 천문 팀이 개발한 대형 언어 모델"
},
"Qwen/Qwen2.5-72B-Instruct-128K": {
"description": "Qwen2.5는 더 강력한 이해 및 생성 능력을 갖춘 새로운 대형 언어 모델 시리즈입니다."
},
"Qwen/Qwen2.5-72B-Instruct-Turbo": {
"description": "Qwen2.5는 명령형 작업 처리를 최적화하기 위해 설계된 새로운 대형 언어 모델 시리즈입니다."
},
"Qwen/Qwen2.5-7B-Instruct": {
"description": "Qwen2.5는 지시형 작업 처리를 최적화하기 위해 설계된 새로운 대형 언어 모델 시리즈입니다."
},
"Qwen/Qwen2.5-7B-Instruct-Turbo": {
"description": "Qwen2.5는 명령형 작업 처리를 최적화하기 위해 설계된 새로운 대형 언어 모델 시리즈입니다."
},
"Qwen/Qwen2.5-Coder-32B-Instruct": {
"description": "Qwen2.5-Coder는 코드 작성에 중점을 둡니다."
},
"Qwen/Qwen2.5-Coder-7B-Instruct": {
"description": "Qwen2.5-Coder-7B-Instruct는 Alibaba Cloud에서 발표한 코드 특화 대규모 언어 모델 시리즈의 최신 버전입니다. 이 모델은 Qwen2.5를 기반으로 하여 55조 개의 토큰으로 훈련되어 코드 생성, 추론 및 수정 능력을 크게 향상시켰습니다. 이 모델은 코딩 능력을 강화할 뿐만 아니라 수학 및 일반 능력의 장점도 유지합니다. 모델은 코드 에이전트와 같은 실제 응용 프로그램에 더 포괄적인 기반을 제공합니다."
},
"Qwen/Qwen2.5-VL-32B-Instruct": {
"description": "Qwen2.5-VL-32B-Instruct는 통의천문(Qwen) 팀이 개발한 멀티모달 대형 언어 모델로, Qwen2.5-VL 시리즈의 일부입니다. 이 모델은 일반적인 물체 인식에 능할 뿐만 아니라 이미지 내의 텍스트, 차트, 아이콘, 그래픽 및 레이아웃 분석이 가능합니다. 시각적 지능 에이전트로 작동하여 도구를 동적으로 조작하고 컴퓨터 및 스마트폰 사용 능력을 보유하고 있습니다. 또한 이 모델은 이미지 내 객체를 정밀하게 위치 지정할 수 있으며, 청구서나 표 등의 구조화된 출력을 생성할 수 있습니다. 이전 버전인 Qwen2-VL 대비 강화 학습을 통해 수학 및 문제 해결 능력이 향상되었으며, 응답 스타일도 인간의 선호에 더 부합하도록 개선되었습니다."
},
"Qwen/Qwen2.5-VL-72B-Instruct": {
"description": "Qwen2.5-VL은 Qwen2.5 시리즈의 시각 언어 모델입니다. 이 모델은 여러 측면에서 뛰어난 성능을 보입니다: 일반적인 물체 인식, 텍스트/차트/레이아웃 분석 등 향상된 시각 이해 능력을 갖추었으며, 시각 에이전트로서 도구 사용을 동적으로 추론하고 안내할 수 있습니다. 1시간 이상의 장편 동영상 이해가 가능하며 주요 이벤트를 포착할 수 있고, 이미지 내 객체의 정확한 위치를 경계 상자 또는 점으로 표시할 수 있습니다. 특히 인보이스, 표 등 스캔 데이터에 적합한 구조화된 출력 생성이 가능합니다."
},
"Qwen/Qwen3-14B": {
"description": "Qwen3는 능력이 크게 향상된 차세대 통의천문 대모델로, 추론, 일반, 에이전트 및 다국어 등 여러 핵심 능력에서 업계 선두 수준에 도달하며 사고 모드 전환을 지원합니다."
},
"Qwen/Qwen3-235B-A22B": {
"description": "Qwen3는 능력이 크게 향상된 차세대 통의천문 대모델로, 추론, 일반, 에이전트 및 다국어 등 여러 핵심 능력에서 업계 선두 수준에 도달하며 사고 모드 전환을 지원합니다."
},
"Qwen/Qwen3-30B-A3B": {
"description": "Qwen3는 능력이 크게 향상된 차세대 통의천문 대모델로, 추론, 일반, 에이전트 및 다국어 등 여러 핵심 능력에서 업계 선두 수준에 도달하며 사고 모드 전환을 지원합니다."
},
"Qwen/Qwen3-32B": {
"description": "Qwen3는 능력이 크게 향상된 차세대 통의천문 대모델로, 추론, 일반, 에이전트 및 다국어 등 여러 핵심 능력에서 업계 선두 수준에 도달하며 사고 모드 전환을 지원합니다."
},
"Qwen/Qwen3-8B": {
"description": "Qwen3는 능력이 크게 향상된 차세대 통의천문 대모델로, 추론, 일반, 에이전트 및 다국어 등 여러 핵심 능력에서 업계 선두 수준에 도달하며 사고 모드 전환을 지원합니다."
},
"Qwen2-72B-Instruct": {
"description": "Qwen2는 Qwen 모델의 최신 시리즈로, 128k 컨텍스트를 지원합니다. 현재 최상의 오픈 소스 모델과 비교할 때, Qwen2-72B는 자연어 이해, 지식, 코드, 수학 및 다국어 등 여러 능력에서 현재 선도하는 모델을 현저히 초월합니다."
},
"Qwen2-7B-Instruct": {
"description": "Qwen2는 Qwen 모델의 최신 시리즈로, 동등한 규모의 최적 오픈 소스 모델은 물론 더 큰 규모의 모델을 초월할 수 있습니다. Qwen2 7B는 여러 평가에서 현저한 우위를 차지하였으며, 특히 코드 및 중국어 이해에서 두드러진 성과를 보였습니다."
},
"Qwen2-VL-72B": {
"description": "Qwen2-VL-72B는 강력한 시각 언어 모델로, 이미지와 텍스트의 다중 모드 처리를 지원하며, 이미지 내용을 정확하게 인식하고 관련 설명이나 답변을 생성할 수 있습니다."
},
"Qwen2.5-14B-Instruct": {
"description": "Qwen2.5-14B-Instruct는 140억 매개변수를 가진 대형 언어 모델로, 성능이 우수하며 중국어 및 다국어 시나리오를 최적화하여 스마트 Q&A, 콘텐츠 생성 등의 응용을 지원합니다."
},
"Qwen2.5-32B-Instruct": {
"description": "Qwen2.5-32B-Instruct는 320억 매개변수를 가진 대형 언어 모델로, 성능이 균형 잡혀 있으며 중국어 및 다국어 시나리오를 최적화하여 스마트 Q&A, 콘텐츠 생성 등의 응용을 지원합니다."
},
"Qwen2.5-72B-Instruct": {
"description": "Qwen2.5-72B-Instruct는 16k 컨텍스트를 지원하며, 8K를 초과하는 긴 텍스트를 생성할 수 있습니다. 함수 호출 및 외부 시스템과의 원활한 상호작용을 지원하여 유연성과 확장성을 크게 향상시킵니다. 모델의 지식이 현저히 증가하였고, 인코딩 및 수학 능력이 크게 향상되었으며, 29개 이상의 언어를 지원합니다."
},
"Qwen2.5-7B-Instruct": {
"description": "Qwen2.5-7B-Instruct는 70억 매개변수를 가진 대형 언어 모델로, 함수 호출 및 외부 시스템과의 원활한 상호작용을 지원하여 유연성과 확장성을 크게 향상시킵니다. 중국어 및 다국어 시나리오를 최적화하여 스마트 Q&A, 콘텐츠 생성 등의 응용을 지원합니다."
},
"Qwen2.5-Coder-14B-Instruct": {
"description": "Qwen2.5-Coder-14B-Instruct는 대규모 사전 훈련된 프로그래밍 지침 모델로, 강력한 코드 이해 및 생성 능력을 갖추고 있으며, 다양한 프로그래밍 작업을 효율적으로 처리할 수 있습니다. 특히 스마트 코드 작성, 자동화 스크립트 생성 및 프로그래밍 문제 해결에 적합합니다."
},
"Qwen2.5-Coder-32B-Instruct": {
"description": "Qwen2.5-Coder-32B-Instruct는 코드 생성, 코드 이해 및 효율적인 개발 시나리오를 위해 설계된 대형 언어 모델로, 업계 최고의 32B 매개변수 규모를 채택하여 다양한 프로그래밍 요구를 충족합니다."
},
"SenseChat": {
"description": "기본 버전 모델(V4), 4K 컨텍스트 길이, 일반적인 능력이 강력합니다."
},
"SenseChat-128K": {
"description": "기본 버전 모델(V4), 128K 컨텍스트 길이, 긴 텍스트 이해 및 생성 작업에서 뛰어난 성능을 발휘합니다."
},
"SenseChat-32K": {
"description": "기본 버전 모델(V4), 32K 컨텍스트 길이, 다양한 시나리오에 유연하게 적용됩니다."
},
"SenseChat-5": {
"description": "최신 버전 모델(V5.5), 128K 컨텍스트 길이, 수학적 추론, 영어 대화, 지시 따르기 및 긴 텍스트 이해 등 분야에서 능력이 크게 향상되어 GPT-4o와 견줄 수 있습니다."
},
"SenseChat-5-1202": {
"description": "V5.5 기반 최신 버전으로, 이전 버전 대비 중영문 기본 능력, 대화, 이과 지식, 문과 지식, 작문, 수리 논리, 글자 수 조절 등 여러 측면에서 현저한 향상을 이루었습니다."
},
"SenseChat-5-Cantonese": {
"description": "32K 컨텍스트 길이, 광둥어 대화 이해에서 GPT-4를 초월하며, 지식, 추론, 수학 및 코드 작성 등 여러 분야에서 GPT-4 Turbo와 견줄 수 있습니다."
},
"SenseChat-5-beta": {
"description": "일부 성능이 SenseCat-5-1202보다 우수합니다."
},
"SenseChat-Character": {
"description": "표준 버전 모델, 8K 컨텍스트 길이, 높은 응답 속도를 자랑합니다."
},
"SenseChat-Character-Pro": {
"description": "고급 버전 모델, 32K 컨텍스트 길이, 능력이 전반적으로 향상되었으며, 중/영어 대화를 지원합니다."
},
"SenseChat-Turbo": {
"description": "빠른 질문 응답 및 모델 미세 조정 시나리오에 적합합니다."
},
"SenseChat-Turbo-1202": {
"description": "최신 경량 버전 모델로, 전체 모델의 90% 이상의 능력을 달성하며, 추론 비용을 크게 줄였습니다."
},
"SenseChat-Vision": {
"description": "최신 버전 모델(V5.5)로, 다중 이미지 입력을 지원하며, 모델의 기본 능력 최적화를 전면적으로 구현하여 객체 속성 인식, 공간 관계, 동작 사건 인식, 장면 이해, 감정 인식, 논리 상식 추론 및 텍스트 이해 생성에서 큰 향상을 이루었습니다."
},
"SenseNova-V6-Pro": {
"description": "이미지, 텍스트, 비디오 기능의 원주율 통합을 실현하여 전통적인 다중 모드의 분리 한계를 극복하고, OpenCompass와 SuperCLUE 평가에서 두 개의 챔피언을 차지했습니다."
},
"SenseNova-V6-Reasoner": {
"description": "시각과 언어의 깊이 있는 추론을 동시에 고려하여, 느린 사고와 깊이 있는 추론을 실현하고, 완전한 사고 과정의 연쇄를 제시합니다."
},
"SenseNova-V6-Turbo": {
"description": "이미지, 텍스트, 비디오 기능의 원주율 통합을 실현하여 전통적인 다중 모드의 분리 한계를 극복하고, 다중 모드 기본 능력, 언어 기본 능력 등 핵심 차원에서 전면적으로 앞서며, 문리 겸수하여 여러 평가에서 국내외 1위 수준에 여러 차례 올라섰습니다."
},
"Skylark2-lite-8k": {
"description": "구름제비(Skylark) 2세대 모델로, Skylark2-lite 모델은 높은 응답 속도를 자랑하며, 실시간 요구가 높은, 비용에 민감하고, 모델 정확도에 대한 요구가 낮은 장면에 적합하며, 컨텍스트 윈도우 길이는 8k입니다."
},
"Skylark2-pro-32k": {
"description": "구름제비(Skylark) 2세대 모델로, Skylark2-pro 버전은 높은 모델 정확도를 자랑하며, 전문 분야 문서 생성, 소설 창작, 고품질 번역 등 복잡한 텍스트 생성 장면에 적합하며, 컨텍스트 윈도우 길이는 32k입니다."
},
"Skylark2-pro-4k": {
"description": "구름제비(Skylark) 2세대 모델로, Skylark2-pro 모델은 높은 모델 정확도를 자랑하며, 전문 분야 문서 생성, 소설 창작, 고품질 번역 등 복잡한 텍스트 생성 장면에 적합하며, 컨텍스트 윈도우 길이는 4k입니다."
},
"Skylark2-pro-character-4k": {
"description": "구름제비(Skylark) 2세대 모델로, Skylark2-pro-character 모델은 우수한 역할 수행 및 채팅 능력을 갖추고 있으며, 사용자 프롬프트 요구에 따라 다양한 역할을 수행하고 자연스러운 대화를 이어갈 수 있습니다. 채팅봇, 가상 비서 및 온라인 고객 서비스 등을 구축하는 데 적합하며 높은 응답 속도를 자랑합니다."
},
"Skylark2-pro-turbo-8k": {
"description": "구름제비(Skylark) 2세대 모델로, Skylark2-pro-turbo-8k는 더 빠른 추론과 낮은 비용을 자랑하며, 컨텍스트 윈도우 길이는 8k입니다."
},
"THUDM/GLM-4-32B-0414": {
"description": "GLM-4-32B-0414는 GLM 시리즈의 차세대 오픈 소스 모델로, 320억 개의 매개변수를 가지고 있습니다. 이 모델은 OpenAI의 GPT 시리즈 및 DeepSeek의 V3/R1 시리즈와 성능이 비슷합니다."
},
"THUDM/GLM-4-9B-0414": {
"description": "GLM-4-9B-0414는 GLM 시리즈의 소형 모델로, 90억 개의 매개변수를 가지고 있습니다. 이 모델은 GLM-4-32B 시리즈의 기술적 특징을 계승하면서도 더 경량화된 배포 옵션을 제공합니다. 규모가 작음에도 불구하고, GLM-4-9B-0414는 코드 생성, 웹 디자인, SVG 그래픽 생성 및 검색 기반 작문 등 작업에서 뛰어난 능력을 보여줍니다."
},
"THUDM/GLM-Z1-32B-0414": {
"description": "GLM-Z1-32B-0414는 깊은 사고 능력을 갖춘 추론 모델로, GLM-4-32B-0414를 기반으로 냉각 시작 및 확장 강화 학습을 통해 개발되었으며, 수학, 코드 및 논리 작업에서 추가 훈련을 받았습니다. 기본 모델에 비해 GLM-Z1-32B-0414는 수학 능력과 복잡한 작업 해결 능력이 크게 향상되었습니다."
},
"THUDM/GLM-Z1-9B-0414": {
"description": "GLM-Z1-9B-0414는 GLM 시리즈의 소형 모델로, 90억 개의 매개변수를 가지고 있지만 오픈 소스 전통을 유지하면서도 놀라운 능력을 보여줍니다. 규모가 작음에도 불구하고, 이 모델은 수학 추론 및 일반 작업에서 여전히 뛰어난 성능을 발휘하며, 동등한 규모의 오픈 소스 모델 중에서 선두 수준에 있습니다."
},
"THUDM/GLM-Z1-Rumination-32B-0414": {
"description": "GLM-Z1-Rumination-32B-0414는 깊은 추론 능력을 갖춘 모델로(OpenAI의 Deep Research와 비교됨), 전형적인 깊은 사고 모델과는 달리, 더 긴 시간 동안 깊은 사고를 통해 더 개방적이고 복잡한 문제를 해결합니다."
},
"THUDM/glm-4-9b-chat": {
"description": "GLM-4 9B 오픈 소스 버전으로, 대화 응용을 위한 최적화된 대화 경험을 제공합니다."
},
"Tongyi-Zhiwen/QwenLong-L1-32B": {
"description": "QwenLong-L1-32B는 강화 학습으로 훈련된 최초의 장문 컨텍스트 대형 추론 모델(LRM)로, 장문 텍스트 추론 작업에 최적화되어 있습니다. 점진적 컨텍스트 확장 강화 학습 프레임워크를 통해 짧은 컨텍스트에서 긴 컨텍스트로 안정적인 전이를 실현했습니다. 7개의 장문 문서 질의응답 벤치마크에서 OpenAI-o3-mini, Qwen3-235B-A22B 등 플래그십 모델을 능가하며 Claude-3.7-Sonnet-Thinking과 견줄 만한 성능을 보입니다. 특히 수학 추론, 논리 추론, 다중 점프 추론 등 복잡한 작업에 뛰어납니다."
},
"Yi-34B-Chat": {
"description": "Yi-1.5-34B는 원래 시리즈 모델의 뛰어난 일반 언어 능력을 유지하면서, 5000억 개의 고품질 토큰을 통해 점진적으로 훈련하여 수학적 논리 및 코드 능력을 크게 향상시켰습니다."
},
"abab5.5-chat": {
"description": "생산성 시나리오를 위해 설계되었으며, 복잡한 작업 처리 및 효율적인 텍스트 생성을 지원하여 전문 분야 응용에 적합합니다."
},
"abab5.5s-chat": {
"description": "중국어 캐릭터 대화 시나리오를 위해 설계되었으며, 고품질의 중국어 대화 생성 능력을 제공하여 다양한 응용 시나리오에 적합합니다."
},
"abab6.5g-chat": {
"description": "다국어 캐릭터 대화를 위해 설계되었으며, 영어 및 기타 여러 언어의 고품질 대화 생성을 지원합니다."
},
"abab6.5s-chat": {
"description": "텍스트 생성, 대화 시스템 등 다양한 자연어 처리 작업에 적합합니다."
},
"abab6.5t-chat": {
"description": "중국어 캐릭터 대화 시나리오에 최적화되어 있으며, 유창하고 중국어 표현 습관에 맞는 대화 생성 능력을 제공합니다."
},
"accounts/fireworks/models/deepseek-r1": {
"description": "DeepSeek-R1은 최첨단 대형 언어 모델로, 강화 학습과 콜드 스타트 데이터를 최적화하여 뛰어난 추론, 수학 및 프로그래밍 성능을 제공합니다."
},
"accounts/fireworks/models/deepseek-v3": {
"description": "Deepseek에서 제공하는 강력한 Mixture-of-Experts (MoE) 언어 모델로, 총 매개변수 수는 671B이며, 각 토큰은 37B 매개변수를 활성화합니다."
},
"accounts/fireworks/models/llama-v3-70b-instruct": {
"description": "Llama 3 70B 지시 모델은 다국어 대화 및 자연어 이해를 위해 최적화되어 있으며, 대부분의 경쟁 모델보다 성능이 우수합니다."
},
"accounts/fireworks/models/llama-v3-8b-instruct": {
"description": "Llama 3 8B 지시 모델은 대화 및 다국어 작업을 위해 최적화되어 있으며, 뛰어난 성능과 효율성을 제공합니다."
},
"accounts/fireworks/models/llama-v3-8b-instruct-hf": {
"description": "Llama 3 8B 지시 모델(HF 버전)은 공식 구현 결과와 일치하며, 높은 일관성과 크로스 플랫폼 호환성을 갖추고 있습니다."
},
"accounts/fireworks/models/llama-v3p1-405b-instruct": {
"description": "Llama 3.1 405B 지시 모델은 초대규모 매개변수를 갖추고 있어 복잡한 작업과 고부하 환경에서의 지시 따르기에 적합합니다."
},
"accounts/fireworks/models/llama-v3p1-70b-instruct": {
"description": "Llama 3.1 70B 지시 모델은 뛰어난 자연어 이해 및 생성 능력을 제공하며, 대화 및 분석 작업에 이상적인 선택입니다."
},
"accounts/fireworks/models/llama-v3p1-8b-instruct": {
"description": "Llama 3.1 8B 지시 모델은 다국어 대화를 위해 최적화되어 있으며, 일반 산업 기준에서 대부분의 오픈 소스 및 폐쇄 소스 모델을 초월합니다."
},
"accounts/fireworks/models/llama-v3p2-11b-vision-instruct": {
"description": "Meta의 11B 파라미터 지시 조정 이미지 추론 모델입니다. 이 모델은 시각 인식, 이미지 추론, 이미지 설명 및 이미지에 대한 일반적인 질문에 답변하기 위해 최적화되었습니다. 이 모델은 차트 및 그래프와 같은 시각 데이터를 이해할 수 있으며, 이미지 세부 사항을 설명하는 텍스트를 생성하여 시각과 언어 간의 격차를 메웁니다."
},
"accounts/fireworks/models/llama-v3p2-3b-instruct": {
"description": "Llama 3.2 3B 지시 모델은 Meta가 출시한 경량 다국어 모델입니다. 이 모델은 효율성을 높이기 위해 설계되었으며, 더 큰 모델에 비해 지연 시간과 비용에서 상당한 개선을 제공합니다. 이 모델의 예시 사용 사례에는 쿼리 및 프롬프트 재작성, 작문 지원이 포함됩니다."
},
"accounts/fireworks/models/llama-v3p2-90b-vision-instruct": {
"description": "Meta의 90B 파라미터 지시 조정 이미지 추론 모델입니다. 이 모델은 시각 인식, 이미지 추론, 이미지 설명 및 이미지에 대한 일반적인 질문에 답변하기 위해 최적화되었습니다. 이 모델은 차트 및 그래프와 같은 시각 데이터를 이해할 수 있으며, 이미지 세부 사항을 설명하는 텍스트를 생성하여 시각과 언어 간의 격차를 메웁니다."
},
"accounts/fireworks/models/llama-v3p3-70b-instruct": {
"description": "Llama 3.3 70B Instruct는 Llama 3.1 70B의 12월 업데이트 버전입니다. 이 모델은 Llama 3.1 70B(2024년 7월 출시)를 기반으로 개선되어 도구 호출, 다국어 텍스트 지원, 수학 및 프로그래밍 능력을 강화했습니다. 이 모델은 추론, 수학 및 지시 준수에서 업계 최고 수준에 도달했으며, 3.1 405B와 유사한 성능을 제공하면서 속도와 비용에서 상당한 이점을 가지고 있습니다."
},
"accounts/fireworks/models/mistral-small-24b-instruct-2501": {
"description": "24B 매개변수 모델로, 더 큰 모델과 동등한 최첨단 능력을 갖추고 있습니다."
},
"accounts/fireworks/models/mixtral-8x22b-instruct": {
"description": "Mixtral MoE 8x22B 지시 모델은 대규모 매개변수와 다수의 전문가 아키텍처를 통해 복잡한 작업의 효율적인 처리를 전방위적으로 지원합니다."
},
"accounts/fireworks/models/mixtral-8x7b-instruct": {
"description": "Mixtral MoE 8x7B 지시 모델은 다수의 전문가 아키텍처를 통해 효율적인 지시 따르기 및 실행을 제공합니다."
},
"accounts/fireworks/models/mythomax-l2-13b": {
"description": "MythoMax L2 13B 모델은 혁신적인 통합 기술을 결합하여 서사 및 역할 수행에 강점을 보입니다."
},
"accounts/fireworks/models/phi-3-vision-128k-instruct": {
"description": "Phi 3 Vision 지시 모델은 경량 다중 모달 모델로, 복잡한 시각 및 텍스트 정보를 처리할 수 있으며, 강력한 추론 능력을 갖추고 있습니다."
},
"accounts/fireworks/models/qwen-qwq-32b-preview": {
"description": "QwQ 모델은 Qwen 팀이 개발한 실험적 연구 모델로, AI 추론 능력을 향상시키는 데 중점을 두고 있습니다."
},
"accounts/fireworks/models/qwen2-vl-72b-instruct": {
"description": "Qwen-VL 모델의 72B 버전은 알리바바의 최신 반복 결과로, 거의 1년간의 혁신을 대표합니다."
},
"accounts/fireworks/models/qwen2p5-72b-instruct": {
"description": "Qwen2.5는 Alibaba Cloud Qwen 팀이 개발한 일련의 디코더 전용 언어 모델입니다. 이러한 모델은 0.5B, 1.5B, 3B, 7B, 14B, 32B 및 72B와 같은 다양한 크기를 제공하며, 기본 버전과 지시 버전 두 가지 변형이 있습니다."
},
"accounts/fireworks/models/qwen2p5-coder-32b-instruct": {
"description": "Qwen2.5 Coder 32B Instruct는 Alibaba Cloud에서 발표한 코드 특화 대규모 언어 모델 시리즈의 최신 버전입니다. 이 모델은 Qwen2.5를 기반으로 하여 55조 개의 토큰으로 훈련되어 코드 생성, 추론 및 수정 능력을 크게 향상시켰습니다. 이 모델은 코딩 능력을 강화할 뿐만 아니라 수학 및 일반 능력의 장점도 유지합니다. 모델은 코드 에이전트와 같은 실제 응용 프로그램에 더 포괄적인 기반을 제공합니다."
},
"accounts/yi-01-ai/models/yi-large": {
"description": "Yi-Large 모델은 뛰어난 다국어 처리 능력을 갖추고 있으며, 다양한 언어 생성 및 이해 작업에 사용될 수 있습니다."
},
"ai21-jamba-1.5-large": {
"description": "398B 매개변수(94B 활성)의 다국어 모델로, 256K 긴 컨텍스트 창, 함수 호출, 구조화된 출력 및 기반 생성 기능을 제공합니다."
},
"ai21-jamba-1.5-mini": {
"description": "52B 매개변수(12B 활성)의 다국어 모델로, 256K 긴 컨텍스트 창, 함수 호출, 구조화된 출력 및 기반 생성 기능을 제공합니다."
},
"ai21-labs/AI21-Jamba-1.5-Large": {
"description": "398B 매개변수(활성 94B)를 가진 다국어 모델로, 256K 길이의 컨텍스트 창, 함수 호출, 구조화된 출력 및 사실 기반 생성을 제공합니다."
},
"ai21-labs/AI21-Jamba-1.5-Mini": {
"description": "52B 매개변수(활성 12B)를 가진 다국어 모델로, 256K 길이의 컨텍스트 창, 함수 호출, 구조화된 출력 및 사실 기반 생성을 제공합니다."
},
"anthropic.claude-3-5-sonnet-20240620-v1:0": {
"description": "Claude 3.5 Sonnet는 업계 표준을 향상시켜 경쟁 모델 및 Claude 3 Opus를 초월하며, 광범위한 평가에서 뛰어난 성능을 보이고, 중간 수준 모델의 속도와 비용을 갖추고 있습니다."
},
"anthropic.claude-3-5-sonnet-20241022-v2:0": {
"description": "Claude 3.5 Sonnet는 업계 표준을 향상시켰으며, 경쟁 모델과 Claude 3 Opus를 초월하는 성능을 보여주고, 광범위한 평가에서 뛰어난 성과를 보였습니다. 또한 중간 수준 모델의 속도와 비용을 갖추고 있습니다."
},
"anthropic.claude-3-haiku-20240307-v1:0": {
"description": "Claude 3 Haiku는 Anthropic의 가장 빠르고 간결한 모델로, 거의 즉각적인 응답 속도를 제공합니다. 간단한 질문과 요청에 신속하게 답변할 수 있습니다. 고객은 인간 상호작용을 모방하는 원활한 AI 경험을 구축할 수 있습니다. Claude 3 Haiku는 이미지를 처리하고 텍스트 출력을 반환할 수 있으며, 200K의 컨텍스트 창을 갖추고 있습니다."
},
"anthropic.claude-3-opus-20240229-v1:0": {
"description": "Claude 3 Opus는 Anthropic의 가장 강력한 AI 모델로, 매우 복잡한 작업에서 최첨단 성능을 발휘합니다. 개방형 프롬프트와 이전에 보지 못한 장면을 처리할 수 있으며, 뛰어난 유창성과 인간과 유사한 이해 능력을 갖추고 있습니다. Claude 3 Opus는 생성 AI의 가능성을 보여줍니다. Claude 3 Opus는 이미지를 처리하고 텍스트 출력을 반환할 수 있으며, 200K의 컨텍스트 창을 갖추고 있습니다."
},
"anthropic.claude-3-sonnet-20240229-v1:0": {
"description": "Anthropic의 Claude 3 Sonnet는 지능과 속도 간의 이상적인 균형을 이루어 기업 작업 부하에 특히 적합합니다. 경쟁 모델보다 낮은 가격으로 최대의 효용을 제공하며, 신뢰할 수 있고 내구성이 뛰어난 주력 모델로 설계되어 대규모 AI 배포에 적합합니다. Claude 3 Sonnet는 이미지를 처리하고 텍스트 출력을 반환할 수 있으며, 200K의 컨텍스트 창을 갖추고 있습니다."
},
"anthropic.claude-instant-v1": {
"description": "일상 대화, 텍스트 분석, 요약 및 문서 질문 응답을 포함한 다양한 작업을 처리할 수 있는 빠르고 경제적이며 여전히 매우 유능한 모델입니다."
},
"anthropic.claude-v2": {
"description": "Anthropic은 복잡한 대화 및 창의적 콘텐츠 생성에서부터 세부 지시 준수에 이르기까지 광범위한 작업에서 높은 능력을 발휘하는 모델입니다."
},
"anthropic.claude-v2:1": {
"description": "Claude 2의 업데이트 버전으로, 두 배의 컨텍스트 창을 갖추고 있으며, 긴 문서 및 RAG 컨텍스트에서의 신뢰성, 환각률 및 증거 기반 정확성이 개선되었습니다."
},
"anthropic/claude-3-haiku": {
"description": "Claude 3 Haiku는 Anthropic의 가장 빠르고 컴팩트한 모델로, 거의 즉각적인 응답을 목표로 합니다. 빠르고 정확한 방향성 성능을 제공합니다."
},
"anthropic/claude-3-opus": {
"description": "Claude 3 Opus는 Anthropic이 복잡한 작업을 처리하기 위해 개발한 가장 강력한 모델입니다. 성능, 지능, 유창성 및 이해력에서 뛰어난 성과를 보입니다."
},
"anthropic/claude-3.5-haiku": {
"description": "Claude 3.5 Haiku는 Anthropic의 가장 빠른 차세대 모델입니다. Claude 3 Haiku와 비교하여 Claude 3.5 Haiku는 모든 기술에서 향상되었으며, 많은 지능 벤치마크 테스트에서 이전 세대의 가장 큰 모델인 Claude 3 Opus를 초월했습니다."
},
"anthropic/claude-3.5-sonnet": {
"description": "Claude 3.5 Sonnet은 Opus를 초월하는 능력과 Sonnet보다 더 빠른 속도를 제공하며, Sonnet과 동일한 가격을 유지합니다. Sonnet은 프로그래밍, 데이터 과학, 비주얼 처리 및 에이전트 작업에 특히 강합니다."
},
"anthropic/claude-3.7-sonnet": {
"description": "Claude 3.7 Sonnet은 Anthropic이 지금까지 개발한 가장 지능적인 모델로, 시장에서 최초의 혼합 추론 모델입니다. Claude 3.7 Sonnet은 거의 즉각적인 응답이나 연장된 단계적 사고를 생성할 수 있으며, 사용자는 이러한 과정을 명확하게 볼 수 있습니다. Sonnet은 프로그래밍, 데이터 과학, 시각 처리, 대리 작업에 특히 뛰어납니다."
},
"anthropic/claude-opus-4": {
"description": "Claude Opus 4는 Anthropic에서 고도로 복잡한 작업을 처리하기 위해 개발한 가장 강력한 모델입니다. 성능, 지능, 유창성 및 이해력 면에서 뛰어난 성과를 보입니다."
},
"anthropic/claude-sonnet-4": {
"description": "Claude Sonnet 4는 거의 즉각적인 응답이나 단계별 심층 사고를 생성할 수 있으며, 사용자는 이러한 과정을 명확하게 볼 수 있습니다. API 사용자는 모델의 사고 시간을 세밀하게 제어할 수도 있습니다."
},
"aya": {
"description": "Aya 23은 Cohere에서 출시한 다국어 모델로, 23개 언어를 지원하여 다양한 언어 응용에 편리함을 제공합니다."
},
"aya:35b": {
"description": "Aya 23은 Cohere에서 출시한 다국어 모델로, 23개 언어를 지원하여 다양한 언어 응용에 편리함을 제공합니다."
},
"baichuan/baichuan2-13b-chat": {
"description": "Baichuan-13B는 백천 인공지능이 개발한 130억 개의 매개변수를 가진 오픈 소스 상용 대형 언어 모델로, 권위 있는 중국어 및 영어 벤치마크에서 동일한 크기에서 최고의 성과를 달성했습니다."
},
"c4ai-aya-expanse-32b": {
"description": "Aya Expanse는 지시 조정, 데이터 차익 거래, 선호 훈련 및 모델 통합의 혁신을 통해 단일 언어 모델의 성능에 도전하는 고성능 32B 다국어 모델입니다. 23개 언어를 지원합니다."
},
"c4ai-aya-expanse-8b": {
"description": "Aya Expanse는 지시 조정, 데이터 차익 거래, 선호 훈련 및 모델 통합의 혁신을 통해 단일 언어 모델의 성능에 도전하는 고성능 8B 다국어 모델입니다. 23개 언어를 지원합니다."
},
"c4ai-aya-vision-32b": {
"description": "Aya Vision은 언어, 텍스트 및 이미지 능력의 여러 주요 기준에서 뛰어난 성능을 발휘하는 최첨단 다중 모달 모델입니다. 23개 언어를 지원합니다. 이 320억 매개변수 버전은 최첨단 다국어 성능에 중점을 두고 있습니다."
},
"c4ai-aya-vision-8b": {
"description": "Aya Vision은 언어, 텍스트 및 이미지 능력의 여러 주요 기준에서 뛰어난 성능을 발휘하는 최첨단 다중 모달 모델입니다. 이 80억 매개변수 버전은 낮은 지연 시간과 최상의 성능에 중점을 두고 있습니다."
},
"charglm-3": {
"description": "CharGLM-3는 역할 수행 및 감정 동반을 위해 설계된 모델로, 초장 다회 기억 및 개인화된 대화를 지원하여 광범위하게 사용됩니다."
},
"charglm-4": {
"description": "CharGLM-4는 역할 놀이 및 감정 동반을 위해 설계되었으며, 초장기 다중 회상 및 개인화된 대화를 지원하여 광범위하게 활용됩니다."
},
"chatglm3": {
"description": "ChatGLM3는 지품 AI와 청화 KEG 연구실에서 발표한 폐원 모델로, 대량의 중영 식별자 사전 학습과 인간 선호도 맞춤 학습을 거쳤습니다. 1세대 모델에 비해 MMLU, C-Eval, GSM8K에서 각각 16%, 36%, 280%의 향상을 이루었으며, 중국어 작업 차트 C-Eval에서 1위를 차지했습니다. 이 모델은 지식량, 추론 능력, 창의력이 요구되는 상황, 예를 들어 광고 문안, 소설 작성, 지식 기반 작문, 코드 생성 등에 적합합니다."
},
"chatglm3-6b-base": {
"description": "ChatGLM3-6b-base는 지푸에서 개발한 ChatGLM 시리즈의 최신 세대 60억 개 매개변수 규모의 오픈소스 기반 모델입니다."
},
"chatgpt-4o-latest": {
"description": "ChatGPT-4o는 동적 모델로, 최신 버전을 유지하기 위해 실시간으로 업데이트됩니다. 강력한 언어 이해 및 생성 능력을 결합하여 고객 서비스, 교육 및 기술 지원을 포함한 대규모 응용 프로그램에 적합합니다."
},
"claude-2.0": {
"description": "Claude 2는 기업에 중요한 능력의 발전을 제공하며, 업계 최고의 200K 토큰 컨텍스트, 모델 환각 발생률 대폭 감소, 시스템 프롬프트 및 새로운 테스트 기능인 도구 호출을 포함합니다."
},
"claude-2.1": {
"description": "Claude 2는 기업에 중요한 능력의 발전을 제공하며, 업계 최고의 200K 토큰 컨텍스트, 모델 환각 발생률 대폭 감소, 시스템 프롬프트 및 새로운 테스트 기능인 도구 호출을 포함합니다."
},
"claude-3-5-haiku-20241022": {
"description": "Claude 3.5 Haiku는 Anthropic의 가장 빠른 차세대 모델입니다. Claude 3 Haiku와 비교할 때, Claude 3.5 Haiku는 모든 기술에서 향상되었으며, 많은 지능 기준 테스트에서 이전 세대의 가장 큰 모델인 Claude 3 Opus를 초월했습니다."
},
"claude-3-5-sonnet-20240620": {
"description": "Claude 3.5 Sonnet은 Opus를 초월하는 능력과 Sonnet보다 더 빠른 속도를 제공하며, Sonnet과 동일한 가격을 유지합니다. Sonnet은 프로그래밍, 데이터 과학, 시각 처리 및 대리 작업에 특히 강합니다."
},
"claude-3-5-sonnet-20241022": {
"description": "Claude 3.5 Sonnet은 Opus를 초월하는 능력과 Sonnet보다 빠른 속도를 제공하면서도 Sonnet과 동일한 가격을 유지합니다. Sonnet은 프로그래밍, 데이터 과학, 비주얼 처리 및 대리 작업에 특히 뛰어납니다."
},
"claude-3-7-sonnet-20250219": {
"description": "Claude 3.7 Sonnet은 Opus를 초월하는 능력과 Sonnet보다 더 빠른 속도를 제공하며, Sonnet과 동일한 가격을 유지합니다. Sonnet은 프로그래밍, 데이터 과학, 비주얼 처리 및 에이전트 작업에 특히 강합니다."
},
"claude-3-haiku-20240307": {
"description": "Claude 3 Haiku는 Anthropic의 가장 빠르고 컴팩트한 모델로, 거의 즉각적인 응답을 목표로 합니다. 빠르고 정확한 방향성 성능을 갖추고 있습니다."
},
"claude-3-opus-20240229": {
"description": "Claude 3 Opus는 Anthropic이 고도로 복잡한 작업을 처리하기 위해 개발한 가장 강력한 모델입니다. 성능, 지능, 유창성 및 이해력에서 뛰어난 성능을 보입니다."
},
"claude-3-sonnet-20240229": {
"description": "Claude 3 Sonnet은 기업 작업 부하에 이상적인 균형을 제공하며, 더 낮은 가격으로 최대 효용을 제공합니다. 신뢰성이 높고 대규모 배포에 적합합니다."
},
"claude-opus-4-20250514": {
"description": "Claude Opus 4는 Anthropic이 매우 복잡한 작업을 처리하기 위해 개발한 가장 강력한 모델입니다. 성능, 지능, 유창성 및 이해력 면에서 뛰어난 성과를 보입니다."
},
"claude-sonnet-4-20250514": {
"description": "Claude 4 Sonnet은 거의 즉각적인 응답 또는 점진적인 사고 과정을 생성할 수 있으며, 사용자는 이러한 과정을 명확하게 볼 수 있습니다. API 사용자는 모델의 사고 시간을 세밀하게 제어할 수 있습니다."
},
"codegeex-4": {
"description": "CodeGeeX-4는 강력한 AI 프로그래밍 도우미로, 다양한 프로그래밍 언어에 대한 스마트 Q&A 및 코드 완성을 지원하여 개발 효율성을 높입니다."
},
"codegeex4-all-9b": {
"description": "CodeGeeX4-ALL-9B는 다국어 코드 생성 모델로, 코드 완성 및 생성, 코드 해석기, 웹 검색, 함수 호출, 저장소 수준의 코드 질문 응답 등 다양한 기능을 지원하여 소프트웨어 개발의 여러 시나리오를 포괄합니다. 10B 미만의 매개변수를 가진 최고의 코드 생성 모델입니다."
},
"codegemma": {
"description": "CodeGemma는 다양한 프로그래밍 작업을 위한 경량 언어 모델로, 빠른 반복 및 통합을 지원합니다."
},
"codegemma:2b": {
"description": "CodeGemma는 다양한 프로그래밍 작업을 위한 경량 언어 모델로, 빠른 반복 및 통합을 지원합니다."
},
"codellama": {
"description": "Code Llama는 코드 생성 및 논의에 중점을 둔 LLM으로, 광범위한 프로그래밍 언어 지원을 결합하여 개발자 환경에 적합합니다."
},
"codellama/CodeLlama-34b-Instruct-hf": {
"description": "Code Llama는 코드 생성 및 논의에 중점을 둔 LLM으로, 광범위한 프로그래밍 언어 지원을 결합하여 개발자 환경에 적합합니다."
},
"codellama:13b": {
"description": "Code Llama는 코드 생성 및 논의에 중점을 둔 LLM으로, 광범위한 프로그래밍 언어 지원을 결합하여 개발자 환경에 적합합니다."
},
"codellama:34b": {
"description": "Code Llama는 코드 생성 및 논의에 중점을 둔 LLM으로, 광범위한 프로그래밍 언어 지원을 결합하여 개발자 환경에 적합합니다."
},
"codellama:70b": {
"description": "Code Llama는 코드 생성 및 논의에 중점을 둔 LLM으로, 광범위한 프로그래밍 언어 지원을 결합하여 개발자 환경에 적합합니다."
},
"codeqwen": {
"description": "CodeQwen1.5는 대량의 코드 데이터로 훈련된 대형 언어 모델로, 복잡한 프로그래밍 작업을 해결하기 위해 설계되었습니다."
},
"codestral": {
"description": "Codestral은 Mistral AI의 첫 번째 코드 모델로, 코드 생성 작업에 뛰어난 지원을 제공합니다."
},
"codestral-latest": {
"description": "Codestral은 코드 생성을 전문으로 하는 최첨단 생성 모델로, 중간 채우기 및 코드 완성 작업을 최적화했습니다."
},
"codex-mini-latest": {
"description": "codex-mini-latest는 o4-mini의 미세 조정 버전으로, Codex CLI 전용입니다. API를 통해 직접 사용하려면 gpt-4.1부터 시작하는 것을 권장합니다."
},
"cognitivecomputations/dolphin-mixtral-8x22b": {
"description": "Dolphin Mixtral 8x22B는 지시 준수, 대화 및 프로그래밍을 위해 설계된 모델입니다."
},
"cohere-command-r": {
"description": "Command R은 RAG 및 도구 사용을 목표로 하는 확장 가능한 생성 모델로, 기업을 위한 생산 규모 AI를 가능하게 합니다."
},
"cohere-command-r-plus": {
"description": "Command R+는 기업급 작업을 처리하기 위해 설계된 최첨단 RAG 최적화 모델입니다."
},
"cohere/Cohere-command-r": {
"description": "Command R은 RAG 및 도구 사용에 최적화된 확장 가능한 생성 모델로, 기업이 생산 수준의 AI를 구현할 수 있도록 설계되었습니다."
},
"cohere/Cohere-command-r-plus": {
"description": "Command R+는 최첨단 RAG 최적화 모델로, 기업용 워크로드에 대응하도록 설계되었습니다."
},
"command": {
"description": "지시를 따르는 대화 모델로, 언어 작업에서 높은 품질과 신뢰성을 제공하며, 우리의 기본 생성 모델에 비해 더 긴 컨텍스트 길이를 가지고 있습니다."
},
"command-a-03-2025": {
"description": "Command A는 지금까지 성능이 가장 뛰어난 모델로, 도구 사용, 에이전트, 검색 강화 생성(RAG) 및 다국어 응용 시나리오에서 뛰어난 성능을 발휘합니다. Command A는 256K의 컨텍스트 길이를 가지고 있으며, 두 개의 GPU만으로 실행할 수 있으며, Command R+ 08-2024에 비해 처리량이 150% 향상되었습니다."
},
"command-light": {
"description": "더 작고 빠른 Command 버전으로, 거의 동일한 강력함을 가지고 있지만 더 빠릅니다."
},
"command-light-nightly": {
"description": "주요 버전 출시 간의 시간 간격을 단축하기 위해 Command 모델의 매일 버전을 출시했습니다. command-light 시리즈의 경우 이 버전은 command-light-nightly로 불립니다. command-light-nightly는 최신이며 가장 실험적이고(아마도) 불안정한 버전입니다. 매일 버전은 정기적으로 업데이트되며 사전 통지 없이 제공되므로 생산 환경에서 사용하지 않는 것이 좋습니다."
},
"command-nightly": {
"description": "주요 버전 출시 간의 시간 간격을 단축하기 위해 Command 모델의 매일 버전을 출시했습니다. Command 시리즈의 경우 이 버전은 command-cightly로 불립니다. command-nightly는 최신이며 가장 실험적이고(아마도) 불안정한 버전입니다. 매일 버전은 정기적으로 업데이트되며 사전 통지 없이 제공되므로 생산 환경에서 사용하지 않는 것이 좋습니다."
},
"command-r": {
"description": "Command R은 대화 및 긴 컨텍스트 작업에 최적화된 LLM으로, 동적 상호작용 및 지식 관리에 특히 적합합니다."
},
"command-r-03-2024": {
"description": "Command R은 지시를 따르는 대화 모델로, 언어 작업에서 더 높은 품질과 신뢰성을 제공하며, 이전 모델에 비해 더 긴 컨텍스트 길이를 가지고 있습니다. 코드 생성, 검색 강화 생성(RAG), 도구 사용 및 에이전트와 같은 복잡한 워크플로우에 사용할 수 있습니다."
},
"command-r-08-2024": {
"description": "command-r-08-2024는 Command R 모델의 업데이트 버전으로, 2024년 8월에 출시되었습니다."
},
"command-r-plus": {
"description": "Command R+는 실제 기업 환경 및 복잡한 응용을 위해 설계된 고성능 대형 언어 모델입니다."
},
"command-r-plus-04-2024": {
"description": "Command R+는 지시를 따르는 대화 모델로, 언어 작업에서 더 높은 품질과 신뢰성을 제공하며, 이전 모델에 비해 더 긴 컨텍스트 길이를 가지고 있습니다. 복잡한 RAG 워크플로우와 다단계 도구 사용에 가장 적합합니다."
},
"command-r-plus-08-2024": {
"description": "Command R+는 지시를 따르는 대화 모델로, 언어 작업에서 더 높은 품질과 신뢰성을 제공하며, 이전 모델에 비해 더 긴 문맥 길이를 지원합니다. 복잡한 RAG 워크플로우와 다단계 도구 사용에 가장 적합합니다."
},
"command-r7b-12-2024": {
"description": "command-r7b-12-2024는 소형이면서도 효율적인 업데이트 버전으로, 2024년 12월에 출시되었습니다. RAG, 도구 사용, 에이전트 등 복잡한 추론과 다단계 처리가 필요한 작업에서 뛰어난 성능을 발휘합니다."
},
"compound-beta": {
"description": "Compound-beta는 GroqCloud에서 지원하는 여러 개방형 모델로 구성된 복합 AI 시스템으로, 사용자의 쿼리에 답변하기 위해 도구를 지능적으로 선택적으로 사용할 수 있습니다."
},
"compound-beta-mini": {
"description": "Compound-beta-mini는 GroqCloud에서 지원하는 공개 가능한 모델로 구성된 복합 AI 시스템으로, 사용자의 쿼리에 답변하기 위해 도구를 지능적으로 선택적으로 사용할 수 있습니다."
},
"computer-use-preview": {
"description": "computer-use-preview 모델은 '컴퓨터 사용 도구'를 위해 특별히 설계된 전용 모델로, 컴퓨터 관련 작업을 이해하고 수행하도록 훈련되었습니다."
},
"dall-e-2": {
"description": "2세대 DALL·E 모델로, 더 사실적이고 정확한 이미지 생성을 지원하며, 해상도는 1세대의 4배입니다."
},
"dall-e-3": {
"description": "최신 DALL·E 모델로, 2023년 11월에 출시되었습니다. 더 사실적이고 정확한 이미지 생성을 지원하며, 세부 표현력이 강화되었습니다."
},
"databricks/dbrx-instruct": {
"description": "DBRX Instruct는 높은 신뢰성을 가진 지시 처리 능력을 제공하며, 다양한 산업 응용을 지원합니다."
},
"deepseek-ai/DeepSeek-R1": {
"description": "DeepSeek-R1은 강화 학습(RL) 기반의 추론 모델로, 모델 내의 반복성과 가독성 문제를 해결합니다. RL 이전에 DeepSeek-R1은 콜드 스타트 데이터를 도입하여 추론 성능을 더욱 최적화했습니다. 수학, 코드 및 추론 작업에서 OpenAI-o1과 유사한 성능을 보이며, 정교하게 설계된 훈련 방법을 통해 전체적인 효과를 향상시켰습니다."
},
"deepseek-ai/DeepSeek-R1-0528": {
"description": "DeepSeek R1은 증가된 계산 자원과 후속 훈련 과정에서 도입된 알고리즘 최적화 메커니즘을 활용하여 추론 및 추론 능력의 깊이를 크게 향상시켰습니다. 이 모델은 수학, 프로그래밍, 일반 논리 등 다양한 벤치마크 평가에서 뛰어난 성능을 보이며, 전체 성능은 O3 및 Gemini 2.5 Pro와 같은 선도 모델에 근접합니다."
},
"deepseek-ai/DeepSeek-R1-0528-Qwen3-8B": {
"description": "DeepSeek-R1-0528-Qwen3-8B는 DeepSeek-R1-0528 모델에서 사고 과정(chain-of-thought)을 증류하여 Qwen3 8B Base에 적용한 모델입니다. 오픈소스 모델 중 최첨단(SOTA) 성능을 달성했으며, AIME 2024 테스트에서 Qwen3 8B를 10% 능가하고 Qwen3-235B-thinking 수준의 성능을 보입니다. 수학 추론, 프로그래밍, 일반 논리 등 여러 벤치마크에서 뛰어난 성능을 보이며, Qwen3-8B와 동일한 아키텍처를 사용하지만 DeepSeek-R1-0528의 토크나이저 구성을 공유합니다."
},
"deepseek-ai/DeepSeek-R1-Distill-Llama-70B": {
"description": "DeepSeek-R1 증류 모델로, 강화 학습과 콜드 스타트 데이터를 통해 추론 성능을 최적화하며, 오픈 소스 모델로 다중 작업 기준을 갱신합니다."
},
"deepseek-ai/DeepSeek-R1-Distill-Qwen-1.5B": {
"description": "DeepSeek-R1 증류 모델로, 강화 학습과 콜드 스타트 데이터를 통해 추론 성능을 최적화하며, 오픈 소스 모델로 다중 작업 기준을 갱신합니다."
},
"deepseek-ai/DeepSeek-R1-Distill-Qwen-14B": {
"description": "DeepSeek-R1 증류 모델로, 강화 학습과 콜드 스타트 데이터를 통해 추론 성능을 최적화하며, 오픈 소스 모델로 다중 작업 기준을 갱신합니다."
},
"deepseek-ai/DeepSeek-R1-Distill-Qwen-32B": {
"description": "DeepSeek-R1-Distill-Qwen-32B는 Qwen2.5-32B를 기반으로 지식 증류를 통해 얻은 모델입니다. 이 모델은 DeepSeek-R1이 생성한 80만 개의 선별된 샘플을 사용하여 미세 조정되었으며, 수학, 프로그래밍 및 추론 등 여러 분야에서 뛰어난 성능을 보여줍니다. AIME 2024, MATH-500, GPQA Diamond 등 여러 기준 테스트에서 우수한 성적을 거두었으며, MATH-500에서 94.3%의 정확도를 달성하여 강력한 수학 추론 능력을 보여줍니다."
},
"deepseek-ai/DeepSeek-R1-Distill-Qwen-7B": {
"description": "DeepSeek-R1-Distill-Qwen-7B는 Qwen2.5-Math-7B를 기반으로 지식 증류를 통해 얻은 모델입니다. 이 모델은 DeepSeek-R1이 생성한 80만 개의 선별된 샘플을 사용하여 미세 조정되었으며, 뛰어난 추론 능력을 보여줍니다. 여러 기준 테스트에서 우수한 성적을 거두었으며, MATH-500에서 92.8%의 정확도를 달성하고, AIME 2024에서 55.5%의 통과율을 기록했으며, CodeForces에서 1189의 점수를 얻어 7B 규모의 모델로서 강력한 수학 및 프로그래밍 능력을 보여줍니다."
},
"deepseek-ai/DeepSeek-V2.5": {
"description": "DeepSeek V2.5는 이전 버전의 우수한 기능을 집약하여 일반 및 인코딩 능력을 강화했습니다."
},
"deepseek-ai/DeepSeek-V3": {
"description": "DeepSeek-V3는 6710억 개의 매개변수를 가진 혼합 전문가(MoE) 언어 모델로, 다중 헤드 잠재 주의(MLA) 및 DeepSeekMoE 아키텍처를 채택하여 보조 손실 없는 부하 균형 전략을 결합하여 추론 및 훈련 효율성을 최적화합니다. 14.8조 개의 고품질 토큰에서 사전 훈련을 수행하고 감독 미세 조정 및 강화 학습을 통해 DeepSeek-V3는 성능 면에서 다른 오픈 소스 모델을 초월하며, 선도적인 폐쇄형 모델에 근접합니다."
},
"deepseek-ai/deepseek-llm-67b-chat": {
"description": "DeepSeek 67B는 고복잡성 대화를 위해 훈련된 고급 모델입니다."
},
"deepseek-ai/deepseek-r1": {
"description": "추론, 수학 및 프로그래밍에 능숙한 최첨단 효율 LLM입니다."
},
"deepseek-ai/deepseek-vl2": {
"description": "DeepSeek-VL2는 DeepSeekMoE-27B를 기반으로 개발된 혼합 전문가(MoE) 비주얼 언어 모델로, 희소 활성화 MoE 아키텍처를 사용하여 4.5B 매개변수만 활성화된 상태에서 뛰어난 성능을 발휘합니다. 이 모델은 비주얼 질문 응답, 광학 문자 인식, 문서/표/차트 이해 및 비주얼 위치 지정 등 여러 작업에서 우수한 성과를 보입니다."
},
"deepseek-chat": {
"description": "일반 및 코드 능력을 융합한 새로운 오픈 소스 모델로, 기존 Chat 모델의 일반 대화 능력과 Coder 모델의 강력한 코드 처리 능력을 유지하면서 인간의 선호에 더 잘 맞춰졌습니다. 또한, DeepSeek-V2.5는 작문 작업, 지시 따르기 등 여러 측면에서 큰 향상을 이루었습니다."
},
"deepseek-coder-33B-instruct": {
"description": "DeepSeek Coder 33B는 코드 언어 모델로, 20조 개의 데이터로 훈련되었으며, 그 중 87%는 코드, 13%는 중문 및 영문입니다. 모델은 16K 창 크기와 빈칸 채우기 작업을 도입하여 프로젝트 수준의 코드 완성과 코드 조각 채우기 기능을 제공합니다."
},
"deepseek-coder-v2": {
"description": "DeepSeek Coder V2는 오픈 소스 혼합 전문가 코드 모델로, 코드 작업에서 뛰어난 성능을 발휘하며, GPT4-Turbo와 경쟁할 수 있습니다."
},
"deepseek-coder-v2:236b": {
"description": "DeepSeek Coder V2는 오픈 소스 혼합 전문가 코드 모델로, 코드 작업에서 뛰어난 성능을 발휘하며, GPT4-Turbo와 경쟁할 수 있습니다."
},
"deepseek-r1": {
"description": "DeepSeek-R1은 강화 학습(RL) 기반의 추론 모델로, 모델 내의 반복성과 가독성 문제를 해결합니다. RL 이전에 DeepSeek-R1은 콜드 스타트 데이터를 도입하여 추론 성능을 더욱 최적화했습니다. 수학, 코드 및 추론 작업에서 OpenAI-o1과 유사한 성능을 보이며, 정교하게 설계된 훈련 방법을 통해 전체적인 효과를 향상시켰습니다."
},
"deepseek-r1-0528": {
"description": "685B 풀스펙 모델로, 2025년 5월 28일에 출시되었습니다. DeepSeek-R1은 후학습 단계에서 대규모 강화 학습 기술을 활용하여 극소수의 라벨 데이터만으로도 모델의 추론 능력을 크게 향상시켰습니다. 수학, 코드, 자연어 추론 등 과제에서 높은 성능과 강력한 능력을 자랑합니다."
},
"deepseek-r1-70b-fast-online": {
"description": "DeepSeek R1 70B 빠른 버전으로, 실시간 온라인 검색을 지원하며 모델 성능을 유지하면서 더 빠른 응답 속도를 제공합니다."
},
"deepseek-r1-70b-online": {
"description": "DeepSeek R1 70B 표준 버전으로, 실시간 온라인 검색을 지원하며 최신 정보가 필요한 대화 및 텍스트 처리 작업에 적합합니다."
},
"deepseek-r1-distill-llama": {
"description": "deepseek-r1-distill-llama는 DeepSeek-R1에서 추출한 Llama 기반 모델입니다."
},
"deepseek-r1-distill-llama-70b": {
"description": "DeepSeek R1 - DeepSeek 패키지에서 더 크고 더 스마트한 모델이 Llama 70B 아키텍처로 증류되었습니다. 기준 테스트와 인공지능 평가에 따르면, 이 모델은 원래 Llama 70B보다 더 스마트하며, 특히 수학 및 사실 정확성이 필요한 작업에서 뛰어난 성능을 보입니다."
},
"deepseek-r1-distill-llama-8b": {
"description": "DeepSeek-R1-Distill 시리즈 모델은 지식 증류 기술을 통해 DeepSeek-R1이 생성한 샘플을 Qwen, Llama 등 오픈 소스 모델에 미세 조정하여 얻은 것입니다."
},
"deepseek-r1-distill-qianfan-llama-70b": {
"description": "2025년 2월 14일 최초 출시된 이 모델은 천범 대모델 연구팀이 Llama3_70B를 기반 모델로 하여(메타 라마로 구축) 증류한 것입니다. 증류 데이터에는 천범의 말뭉치도 동기화되어 추가되었습니다."
},
"deepseek-r1-distill-qianfan-llama-8b": {
"description": "2025년 2월 14일 최초 출시된 이 모델은 천범 대모델 연구팀이 Llama3_8B를 기반 모델로 하여(메타 라마로 구축) 증류한 것입니다. 증류 데이터에는 천범의 말뭉치도 동기화되어 추가되었습니다."
},
"deepseek-r1-distill-qwen": {
"description": "deepseek-r1-distill-qwen은 DeepSeek-R1에서 Qwen을 기반으로 증류된 모델입니다."
},
"deepseek-r1-distill-qwen-1.5b": {
"description": "DeepSeek-R1-Distill 시리즈 모델은 지식 증류 기술을 통해 DeepSeek-R1이 생성한 샘플을 Qwen, Llama 등 오픈 소스 모델에 미세 조정하여 얻은 것입니다."
},
"deepseek-r1-distill-qwen-14b": {
"description": "DeepSeek-R1-Distill 시리즈 모델은 지식 증류 기술을 통해 DeepSeek-R1이 생성한 샘플을 Qwen, Llama 등 오픈 소스 모델에 미세 조정하여 얻은 것입니다."
},
"deepseek-r1-distill-qwen-32b": {
"description": "DeepSeek-R1-Distill 시리즈 모델은 지식 증류 기술을 통해 DeepSeek-R1이 생성한 샘플을 Qwen, Llama 등 오픈 소스 모델에 미세 조정하여 얻은 것입니다."
},
"deepseek-r1-distill-qwen-7b": {
"description": "DeepSeek-R1-Distill 시리즈 모델은 지식 증류 기술을 통해 DeepSeek-R1이 생성한 샘플을 Qwen, Llama 등 오픈 소스 모델에 미세 조정하여 얻은 것입니다."
},
"deepseek-r1-fast-online": {
"description": "DeepSeek R1 풀 빠른 버전으로, 실시간 온라인 검색을 지원하며 671B 매개변수의 강력한 능력과 더 빠른 응답 속도를 결합합니다."
},
"deepseek-r1-online": {
"description": "DeepSeek R1 풀 버전으로, 671B 매개변수를 가지고 있으며 실시간 온라인 검색을 지원하여 더 강력한 이해 및 생성 능력을 제공합니다."
},
"deepseek-reasoner": {
"description": "DeepSeek에서 제공하는 추론 모델입니다. 최종 답변을 출력하기 전에 모델은 먼저 사고 과정을 출력하여 최종 답변의 정확성을 높입니다."
},
"deepseek-v2": {
"description": "DeepSeek V2는 경제적이고 효율적인 처리 요구에 적합한 Mixture-of-Experts 언어 모델입니다."
},
"deepseek-v2:236b": {
"description": "DeepSeek V2 236B는 DeepSeek의 설계 코드 모델로, 강력한 코드 생성 능력을 제공합니다."
},
"deepseek-v3": {
"description": "DeepSeek-V3는 항저우 심도 탐색 인공지능 기초 기술 연구 회사에서 자체 개발한 MoE 모델로, 여러 평가에서 뛰어난 성적을 거두며, 주류 순위에서 오픈 소스 모델 1위를 차지하고 있습니다. V3는 V2.5 모델에 비해 생성 속도가 3배 향상되어 사용자에게 더 빠르고 원활한 사용 경험을 제공합니다."
},
"deepseek-v3-0324": {
"description": "DeepSeek-V3-0324는 671B 매개변수를 가진 MoE 모델로, 프로그래밍 및 기술 능력, 맥락 이해 및 긴 텍스트 처리 등에서 두드러진 장점을 보입니다."
},
"deepseek/deepseek-chat-v3-0324": {
"description": "DeepSeek V3는 685B 매개변수를 가진 전문가 혼합 모델로, DeepSeek 팀의 플래그십 채팅 모델 시리즈의 최신 반복입니다.\n\n이 모델은 [DeepSeek V3](/deepseek/deepseek-chat-v3) 모델을 계승하