wenyan-mcp
Wenyan MCP Server, which lets AI automatically format Markdown articles and publish them to WeChat GZH.
README Documentation
文颜 MCP Server
简介
文颜(Wenyan) 是一款多平台 Markdown 排版与发布工具,支持将 Markdown 一键转换并发布至:
- 微信公众号
- 知乎
- 今日头条
- 以及其它内容平台(持续扩展中)
文颜的目标是:让写作者专注内容,而不是排版和平台适配。
本仓库是 文颜的 MCP Server 版本,基于模型上下文协议(Model Context Protocol),旨在让 AI 助手(如 Claude Desktop)具备自动排版和发布公众号文章的能力。
文颜的不同版本
文颜目前提供多种形态,覆盖不同使用场景:
- macOS App Store 版 - MAC 桌面应用
- 跨平台桌面版 - Windows/Linux
- CLI 版本 - 命令行 / CI 自动化发布
- 👉 MCP 版本 - 本项目
- 核心库 - 嵌入 Node / Web 项目
功能特性
- 列出并选择支持的文章主题
- 使用内置主题对 Markdown 内容排版
- 自动处理并上传图片(本地 / 网络)
- 一键发布文章到微信公众号草稿箱
- 与 AI 深度集成:让 AI 帮你管理公众号的排版和发布
[!TIP]
如果与 AI 集成遇到问题,可以参考 test/list.js 和 test/publish.js 中的完整调用示例。
主题效果预览
👉 内置主题预览
文颜内置并适配了多个优秀的 Typora 主题,在此感谢原作者:
安装与集成
文颜 MCP Server 支持多种运行方式,请根据你的环境选择。
方式一:npm 安装(推荐)
直接安装到本地:
npm install -g @wenyan-md/mcp
配置 MCP Client(如 Claude Desktop):
在你的 MCP 配置文件中加入以下内容:
{
"mcpServers": {
"wenyan-mcp": {
"name": "公众号助手",
"command": "wenyan-mcp",
"env": {
"WECHAT_APP_ID": "your_app_id",
"WECHAT_APP_SECRET": "your_app_secret"
}
}
}
}
方式二:Docker 运行(推荐)
适合部署到服务器环境,或希望环境隔离的用户。
拉取镜像:
docker pull caol64/wenyan-mcp
配置 MCP Client:
{
"mcpServers": {
"wenyan-mcp": {
"name": "公众号助手",
"command": "docker",
"args": [
"run",
"--rm",
"-i",
"-v", "/your/host/file/path:/mnt/host-downloads",
"-e", "WECHAT_APP_ID=your_app_id",
"-e", "WECHAT_APP_SECRET=your_app_secret",
"-e", "HOST_FILE_PATH=/your/host/file/path",
"caol64/wenyan-mcp"
]
}
}
}
Docker 配置特别说明:
- 挂载目录 (
-v):必须将宿主机的文件/图片目录挂载到容器内的/mnt/host-downloads。- 环境变量 (
HOST_FILE_PATH):必须与宿主机挂载的文件/图片目录路径保持一致。- 原理:你的 Markdown 文件/文章内所引用的本地图片应放置在该目录中,Docker 会自动将其映射,使容器能够读取并上传。
环境变量说明
无论使用哪种方式,都需要配置以下环境变量以连接微信公众号平台:
WECHAT_APP_ID:微信公众号平台的 App IDWECHAT_APP_SECRET:微信公众号平台的 App Secret
Markdown Frontmatter 说明(必读)
为了正确上传文章,每篇 Markdown 顶部需要包含 frontmatter:
---
title: 在本地跑一个大语言模型(2) - 给模型提供外部知识库
cover: /Users/xxx/image.jpg
---
字段说明:
title文章标题(必填)cover文章封面- 本地路径或网络图片
- 如果正文有至少一张图片,可省略,此时将使用其中一张作为封面
- 如果正文无图片,则必须提供 cover
关于图片自动上传
支持以下图片来源:
- 本地路径(如:
/Users/lei/Downloads/result_image.jpg) - 网络路径(如:
https://example.com/image.jpg)
微信公众号 IP 白名单
[!IMPORTANT]
请确保运行文颜 MCP Server 的机器 IP 已加入微信公众号后台的 IP 白名单,否则上传接口将调用失败。
配置说明文档:https://yuzhi.tech/docs/wenyan/upload
示例文章格式
---
title: 在本地跑一个大语言模型(2) - 给模型提供外部知识库
cover: /Users/lei/Downloads/result_image.jpg
---
在[上一篇文章](https://babyno.top/posts/2024/02/running-a-large-language-model-locally/)中,我们展示了如何在本地运行大型语言模型。本篇将介绍如何让模型从外部知识库中检索定制数据,提升答题准确率,让它看起来更“智能”。
## 准备模型
访问 `Ollama` 的模型页面,搜索 `qwen`,我们使用支持中文语义的“[通义千问](https://ollama.com/library/qwen:7b)”模型进行实验。

如何调试
推荐使用官方 Inspector 进行调试:
npx @modelcontextprotocol/inspector <command>
启动成功出现类似提示:
🔗 Open inspector with token pre-filled:
http://localhost:6274/?MCP_PROXY_AUTH_TOKEN=761c05058aa4f84ad02280e62d7a7e52ec0430d00c4c7a61492cca59f9eac299
(Auto-open is disabled when authentication is enabled)
访问以上链接即可打开调试页面。

- 正确填写启动命令
- 添加环境变量
- 点击 Connect
- 选择 Tools -> List Tools
- 选择要调试的接口
- 填入参数并点击 Run Tool
- 查看完整参数
赞助
如果你觉得文颜对你有帮助,可以给我家猫咪买点罐头 ❤️
License
Apache License Version 2.0