UNPKG

kimicc

Version:

Run Claude Code with Kimi K2 API - 支持使用多种大模型驱动运行 Claude Code

97 lines (60 loc) 4.76 kB
# KIMICC [![npm version](https://img.shields.io/npm/v/kimicc.svg)](https://www.npmjs.com/package/kimicc) 一步命令 `npx kimicc` 使用 Kimi K2 / GLM-4.5 / Qwen3-Coder / DeepSeek-v3.1 运行 Claude Code。 或者 `npm install -g kimicc` 安装 KimiCC。 这是一个轻量的 nodejs 的 npm 包,在启动时设置好环境变量,让 Claude Code 调用 Kimi K2 / GLM-4.5 / Qwen3-Coder / DeepSeek-v3.1 模型。 ## 为什么使用 Kimi K2 / GLM-4.5 / Qwen3-Coder / DeepSeek-v3.1 运行 Claude Code 1. Claude 由于特殊原因难以稳定订阅,并且对一些地区进行技术封锁; 2. Claude 订阅价格相对于发展中国家的广大群众难以负担以及支付; 3. 不少大模型厂商都推出了兼容 anthropic 的接口; 4. 当前好几家国产大模型都达到较高 Agentic 特性,足以驾驭 Claude Code 这个系统; 5. API 没有网络问题,价格仅有 Claude 的 1/N,支持多种支付方式; 6. 让更多人体验最先进的开发工具,让厂商卷起来。 7. v2.0 新增:支持多个不同 API 同时运行,提升并发能力,比如可以同时让多个 Kimi 账号在本地并发。 ## 这个工具包做了什么? 这个工具做一些微小的工作,帮你节省时间去处理配置的工作。底层是在启动 claude 之前设定好 Auth Token 和 Base URL 环境变量参数。 对比其他教程让你配置文件,或者在启动时加长长的参数,使用本工具会节省你宝贵的时间精力。 ## 使用方式 ### 获取 API Key 以下是控制台地址: - [Kimi](https://platform.moonshot.cn/console/api-keys) - [GLM/智谱](https://bigmodel.cn/usercenter/proj-mgmt/apikeys) [支持 20 元包月](https://www.bigmodel.cn/invite?icode=pQjcLR%2BsgpfrUDgDdpBX%2F5mwcr074zMJTpgMb8zZZvg%3D) - [Qwen/阿里云百炼](https://bailian.console.aliyun.com/?tab=globalset#/efm/api_key) - [DeepSeek](https://platform.deepseek.com/api_keys) ### 配置与启动 - 第一步,获取 API Key - 第二步,在你本地有 Nodejs 环境的前提下,运行 `npx kimicc` 安装并启动,或者使用 `npm install -g kimicc`- 第三步,在安装后可使用 kimicc 直接启动,并在提示下输入 Auth Token。 首次初始化会提示你输入 Auth Token,下次就无需再次设置。 ⚠️注意⚠️,启动时 Claude Code 会询问 AUTH TOKEN,默认是 NO(recommended),此时要选 YES。 Do you want to use this auth token? SELECT YES!!! ![screenshot](assets/screenshot.png) 如何卸载: `npm uninstall kimicc` 完全卸载 claude code:`npm uninstall @anthropic-ai/claude-code` ### 使用 Kimi 以外模型的方式 默认什么参数都不添加,那么启动使用的是 kimi 模型的配置,若使用以下参数可以启动其他模型 - `--deepseek` 会设定 base_url=https://api.deepseek.com/anthropic model=deepseek-chat - `--glm` 会设定 base_url=https://open.bigmodel.cn/api/anthropic model=glm-4.5 - `--qwen` 会设定 base_url=base_url=https://dashscope.aliyuncs.com/api/v2/apps/claude-code-proxy model=qwen3-coder-plus ### 自定义大模型名称 启动或设定 Profile 时可以使用以下参数设定模型, - `--model` 用于指定主要的大模型型号。 - `--small-fast-model` 用于指定辅助快速小模型,若没有指定则使用 `--model` 配置。 这能让用户第一时间使用上大模型发布。即在 kimi 发布 kimi-k2-0905-preview 通过 `kimicc --model=kimi-k2-0905-preview` 使用最新模型。 ### 附加命令功能 - `kimicc reset` 重制配置。 - `kimicc inject` 将配置写入 shell 配置中,后续可以用 claude 直接启动,无需再通过 kimicc。注意,可以用 `kimicc inject --reset` 删除写入的配置。 - `kimicc profile` 支持配置多个不同服务提供商。 ## 版本记录 - v1.x 基本功能实现 - v2.x - v2.0.0 支持 profile 功能,可分开启动多个配置 - v2.1.0 默认支持 Kimi K2 / GLM-4.5 / Qwen3-Coder / DeepSeek-v3.1 ## 已知问题 - 本项目先在 Mac 上开发并测试,不保证 Linux 以及 Windows 系统运行,欢迎反馈问题以及提交 PR。 - 由于 Kimi K2 不支持多模态,无法粘贴和读取图片。 - Kimi 在不同充值档位对请求频率和每日请求量有限制,可能需要至少充值 50 元达到一档才能符合基本使用需求,具体查看[官方接口限速说明](https://platform.moonshot.cn/docs/pricing/limits)。 - 由于这个工具只是修改环境变量,会让 kimicc 也写入 Claude 的数据目录,会共享 session 和数据统计数据,最新版本 v2.1.x 会写入对应模型调用,统计中会将不同模型分开显示。 👏 欢迎遇到问题或想要更多功能提出 Issue。 ## License MIT. Kai<kai@thekaiway.com>