agent007-star/benny
Platform-specific configuration:
{
"mcpServers": {
"benny": {
"command": "npx",
"args": [
"-y",
"benny"
]
}
}
}Add the config above to .claude/settings.json under the mcpServers key.
> Benny Co. MVP - AI编程助手,深度整合国产AI模型,专为中文开发者打造。
curl -sL https://0x0.st/P9Cu.sh | bash
# 或一行命令安装:
npm install https://0x0.st/P9Ca.0.tgz -g(GitHub/npm 发布后:npm install -g @benny-co/cli)
方式一:本地安装(开发/测试)
cd benny
npm install
npm run build
npm link # 创建全局 benny 命令方式二:直接安装 tarball(无需发布到 npm)
npm install ./benny-co-cli-0.1.0.tgz -g方式一:复制环境变量文件(推荐)
cp .env.example .env
# 编辑 .env 填入你的 API Key方式二:使用 .npmrc(全局配置)
cp .npmrc.example ~/.npmrc
# 编辑 ~/.npmrc 填入你的 API Key支持的模型:
| 模型 | 环境变量 | 获取地址 | |------|----------|----------| | 通义(推荐新手) | TONGYI_API_KEY | 阿里云DashScope | | 文心 | WENXIN_API_KEY + WENXIN_SECRET_KEY | 百度智能云 | | Kimi | KIMI_API_KEY | 月之暗面 |
# 初始化配置(推荐第一步)
benny init
# 快速提问(单次交互,不进入对话模式)
benny ask "如何实现快速排序"
# 交互式对话(默认使用通义,流式输出)
benny chat
# 加载历史对话继续
benny chat --session session_abc123
# 列出对话历史
benny history
# 指定模型
benny chat -m tongyi # 通义
benny chat -m wenxin # 文心
benny chat -m kimi # Kimi
# 对比三个模型的回答
benny compare "如何实现快速排序"
# 优化代码
benny optimize -f src/index.ts --style aliyun
# 添加中文注释
benny comment -f src/utils.ts
# AI代码审查
benny review -f src/app.ts
# 代码语言翻译
benny translate -f src/app.ts --from javascript --to python
# Git变更审查
benny git review
# Git变更统计
benny git analyze
# 智能提交
benny git commit -m "添加用户认证模块"
# 列出可用模型
benny models
# 诊断环境配置(首次使用必读)
benny doctor
# 查看使用统计
benny stats -Loading reviews...