README Documentation
AI Help AI MCP 服务器
这是一个基于 Model Context Protocol (MCP) 的服务器,允许 AI 代理通过 MCP 协议向其他配置好的大型语言模型(LLM)请求帮助或咨询。
功能特点
- 多模型支持: 内置配置了对多种流行 LLM 的访问(例如 Grok, Gemini, Claude, GPT-4o)。
- 动态工具列表: MCP 服务器会自动列出所有可用的 AI 助手作为独立的工具(例如
ask_grok3
,ask_gemini2_5pro
)。 - 统一接口: 通过标准的 OpenAI 兼容 API 格式与后端 AI 模型交互。
- 对话历史: 维护简单的内存对话历史(最近 5 轮),为每个模型提供上下文。
- 环境配置: 通过环境变量配置后端 API 代理的 URL 和 Key。
系统要求
- Node.js v18.0.0 或更高版本
您可以通过以下命令验证 Node.js 安装:
node --version # 应显示v18.0.0或更高版本
安装步骤
-
克隆或下载本项目代码。
-
进入项目根目录。
-
安装依赖:
npm install
-
构建项目:
npm run build
(注意:
npm install
通常会自动触发npm run build
)
配置说明 (客户端)
此 MCP 服务器本身不读取 .env
文件。您需要在启动此 MCP 服务器的客户端应用程序(例如您的 AI 聊天界面或 MCP 管理工具)中配置以下环境变量:
API_URL
: 指向您的 OpenAI 兼容 API 代理服务器的 基础 URL (例如:http://localhost:3000
)。服务器代码会自动添加/v1/chat/completions
路径。API_KEY
: 用于访问您的 API 代理的密钥 (例如:sk-xxxxxxxx
)。
客户端配置示例 (例如在 VS Code MCP 插件中)
在您的客户端 MCP 服务器配置界面(类似于您截图中的界面):
- 名称: 给这个服务器起个名字,例如
求助AI
。 - 描述: 简要描述,例如
让 AI 去求助别的 AI
。 - 类型: 选择
标准输入/输出 (stdio)
。 - 命令: 输入
node
。 - 参数: 输入指向本项目 编译后 的
index.js
文件的 绝对路径。例如:实际地址\AIHelpAI-MCP\build\index.js
(请根据您的实际路径修改)。 - 环境变量:
- 添加
API_URL
,值为您的 API 代理 URL (例如http://localhost:3000
)。 - 添加
API_KEY
,值为您的 API 密钥 (例如sk-xxxxxxxx
)。
- 添加
保存配置后,客户端应该能够启动并连接到这个 MCP 服务器。
使用方法
配置并启动服务器后,连接到此 MCP 服务器的 AI 代理将看到一系列可用的工具,格式为 ask_<model_key>
,例如:
ask_grok3
ask_gemini2_5pro
ask_claude3_7sonnet
ask_gpt4o
每个工具的描述会说明该 AI 助手的特点和擅长领域。
调用工具时,只需提供一个参数:
prompt
(string, required): 您想向该 AI 助手提出的问题或指令。
服务器将使用配置的 API URL 和 Key,结合内置的模型参数和对话历史,向对应的模型发出请求,并将回复返回给调用方。
开发者工具
您可以使用 MCP Inspector 工具来测试服务器(如果已全局安装或使用 npx):
# 确保设置了 API_URL 和 API_KEY 环境变量
npx @modelcontextprotocol/inspector build/index.js
# 或者,如果全局安装了
mcp-inspector build/index.js
许可证
请参阅项目仓库中的许可证文件。
Quick Actions
Key Features
Model Context Protocol
Secure Communication
Real-time Updates
Open Source