✅ 最终目标
- 团队成员只需安装两个图形化客户端(Ollama + Cherry Studio)
- MinerU 通过一条 Docker 命令启动(使用国内镜像源加速)
- 所有服务在局域网内自动互通,无需写代码或配环境变量(除首次简单设置)
🧰 所需工具(全部免费、开源、支持中文)
| 组件 | 安装方式 | 说明 |
|---|---|---|
| Ollama | 官网下载客户端 | macOS/Windows 一键安装,自动后台运行 |
| Cherry Studio | GitHub Releases 下载 | 桌面 App,内置浏览器 UI,无需 Node.js |
| MinerU | docker run 命令(使用国内镜像) | 文档解析微服务,暴露 HTTP API |
🚀 部署步骤(5 分钟完成)
第一步:启动 MinerU(使用 Docker + 国内镜像)
假设你已安装 Docker Desktop(Windows/macOS)或 Docker Engine(Linux)
Bash编辑1# 使用国内镜像源构建并运行 MinerU(避免拉取失败)
2docker run -d \
3 --name mineru \
4 -p 8081:8081 \
5 -v $(pwd)/uploads:/app/uploads \
6 registry.cn-beijing.aliyuncs.com/opendatalab/mineru:latest \
7 python server.py --host 0.0.0.0 --port 8081
✅ 说明:
- 镜像来自阿里云(同步官方最新版),加速拉取
- 服务运行在
http://<本机IP>:8081- 上传文件会保存在当前目录的
./uploads
💡 Windows 用户请将
$(pwd)替换为绝对路径,如:C:\mineru_data
第二步:安装并运行 Ollama
- 访问 https://ollama.com/download
- 下载对应系统的
.dmg(macOS)或.exe(Windows) - 安装后自动启动
✅ 模型会自动下载(约 4~5GB),后续所有请求走
http://localhost:11434
🔒 如需局域网访问(让 Cherry Studio 在其他机器调用):
- macOS:系统设置 → 隐私与安全性 → 完全磁盘访问权限 → 勾选 Ollama
- Windows:防火墙放行 11434 端口
- 启动时加环境变量(可选):Bash编辑
1OLLAMA_ORIGINS=http://*:3000,http://localhost:* ollama serve
第三步:安装 Cherry Studio(图形化客户端)
- 打开 Cherry Studio Releases
- 下载最新版:
- macOS:
Cherry-Studio-x.x.x.dmg - Windows:
Cherry-Studio-Setup-x.x.x.exe
- macOS:
- 安装后直接打开,无需配置 Node.js 或 Python
首次启动配置(仅一次):
在 Cherry Studio 的 设置(Settings) 中填入:
| 配置项 | 值 |
|---|---|
| LLM Provider | Ollama |
| Ollama Base URL | http://<你的服务器IP>:11434 (如 http://192.168.1.100:11434) |
| MinerU API URL | http://<你的服务器IP>:8081/parse |
✅ 提示:如果所有服务跑在同一台电脑,IP 用
localhost即可
✅ Cherry Studio 会自动测试连接,绿色对勾表示成功
🧪 使用流程(团队协作示例)
- 成员 A 在 Cherry Studio 中上传
项目计划书.pdf - Cherry Studio 调用
MinerU→ 返回结构化 JSON(含章节、表格) - 内容自动存入本地向量库(Cherry Studio 内置 ChromaDB)
- 成员 B 输入:“Q:第三阶段的交付物是什么?”
- Cherry Studio 自动检索相关段落 + 调用 Ollama 生成答案
- 答案实时显示,支持导出/评论/分享
🌐 局域网共享(多人使用)
- 将 MinerU 和 Ollama 运行在一台固定 IP 的主机(如 192.168.1.100)
- 其他成员安装 Cherry Studio 客户端
- 在各自 Cherry Studio 设置中填写该主机 IP
- 无需公网、无需域名、无需反向代理
🛡️ 数据安全 & 离线保障
- 所有文档解析在本地 Docker 容器内完成
- 大模型运行在本地,不联网(除非手动 pull 新模型)
- Cherry Studio 数据默认存储在用户本地
~/Library/Application Support/Cherry Studio(macOS)或%APPDATA%(Windows)
📌 总结:为什么这个方案适合小团队?
| 优势 | 说明 |
|---|---|
| 零代码部署 | 只需运行 1 条 Docker 命令 + 安装两个客户端 |
| 中文友好 | MinerU 解析中文 PDF 强,Qwen 模型中文理解好 |
| 完全离线 | 无任何云依赖,数据不出内网 |
| 低成本 | 7B 模型可在 16GB 内存笔记本运行(CPU 模式) |
| 可扩展 | 后续可加向量数据库、OCR、权限系统等 |
详情可咨询。