小型团队本地化应用大模型的解决方案


✅ 最终目标

  • 团队成员只需安装两个图形化客户端(Ollama + Cherry Studio)
  • MinerU 通过一条 Docker 命令启动(使用国内镜像源加速)
  • 所有服务在局域网内自动互通,无需写代码或配环境变量(除首次简单设置)

🧰 所需工具(全部免费、开源、支持中文)

组件安装方式说明
Ollama官网下载客户端macOS/Windows 一键安装,自动后台运行
Cherry StudioGitHub Releases 下载桌面 App,内置浏览器 UI,无需 Node.js
MinerUdocker run 命令(使用国内镜像)文档解析微服务,暴露 HTTP API

🚀 部署步骤(5 分钟完成)

第一步:启动 MinerU(使用 Docker + 国内镜像)

假设你已安装 Docker Desktop(Windows/macOS)或 Docker Engine(Linux)

Bash编辑1# 使用国内镜像源构建并运行 MinerU(避免拉取失败)
2docker run -d \
3  --name mineru \
4  -p 8081:8081 \
5  -v $(pwd)/uploads:/app/uploads \
6  registry.cn-beijing.aliyuncs.com/opendatalab/mineru:latest \
7  python server.py --host 0.0.0.0 --port 8081

✅ 说明:

  • 镜像来自阿里云(同步官方最新版),加速拉取
  • 服务运行在 http://<本机IP>:8081
  • 上传文件会保存在当前目录的 ./uploads

💡 Windows 用户请将 $(pwd) 替换为绝对路径,如:C:\mineru_data


第二步:安装并运行 Ollama

  1. 访问 https://ollama.com/download
  2. 下载对应系统的 .dmg(macOS)或 .exe(Windows)
  3. 安装后自动启动




✅ 模型会自动下载(约 4~5GB),后续所有请求走 http://localhost:11434

🔒 如需局域网访问(让 Cherry Studio 在其他机器调用):

  • macOS:系统设置 → 隐私与安全性 → 完全磁盘访问权限 → 勾选 Ollama
  • Windows:防火墙放行 11434 端口
  • 启动时加环境变量(可选):Bash编辑1OLLAMA_ORIGINS=http://*:3000,http://localhost:* ollama serve

第三步:安装 Cherry Studio(图形化客户端)

  1. 打开 Cherry Studio Releases
  2. 下载最新版:
    • macOS:Cherry-Studio-x.x.x.dmg
    • Windows:Cherry-Studio-Setup-x.x.x.exe
  3. 安装后直接打开,无需配置 Node.js 或 Python

首次启动配置(仅一次):

在 Cherry Studio 的 设置(Settings) 中填入:

配置项
LLM ProviderOllama
Ollama Base URLhttp://<你的服务器IP>:11434 (如 http://192.168.1.100:11434
MinerU API URLhttp://<你的服务器IP>:8081/parse

✅ 提示:如果所有服务跑在同一台电脑,IP 用 localhost 即可
✅ Cherry Studio 会自动测试连接,绿色对勾表示成功


🧪 使用流程(团队协作示例)

  1. 成员 A 在 Cherry Studio 中上传 项目计划书.pdf
  2. Cherry Studio 调用 MinerU → 返回结构化 JSON(含章节、表格)
  3. 内容自动存入本地向量库(Cherry Studio 内置 ChromaDB)
  4. 成员 B 输入:“Q:第三阶段的交付物是什么?”
  5. Cherry Studio 自动检索相关段落 + 调用 Ollama 生成答案
  6. 答案实时显示,支持导出/评论/分享

🌐 局域网共享(多人使用)

  • 将 MinerU 和 Ollama 运行在一台固定 IP 的主机(如 192.168.1.100)
  • 其他成员安装 Cherry Studio 客户端
  • 在各自 Cherry Studio 设置中填写该主机 IP
  • 无需公网、无需域名、无需反向代理

🛡️ 数据安全 & 离线保障

  • 所有文档解析在本地 Docker 容器内完成
  • 大模型运行在本地,不联网(除非手动 pull 新模型)
  • Cherry Studio 数据默认存储在用户本地 ~/Library/Application Support/Cherry Studio(macOS)或 %APPDATA%(Windows)

📌 总结:为什么这个方案适合小团队?

优势说明
零代码部署只需运行 1 条 Docker 命令 + 安装两个客户端
中文友好MinerU 解析中文 PDF 强,Qwen 模型中文理解好
完全离线无任何云依赖,数据不出内网
低成本7B 模型可在 16GB 内存笔记本运行(CPU 模式)
可扩展后续可加向量数据库、OCR、权限系统等

详情可咨询。


发表回复

您的邮箱地址不会被公开。 必填项已用 * 标注

探索未来出版

九录科技愿意通过最前沿的技术和深厚的行业理解,为您的数字业务提供架构简单但很灵活的从创作到发布的全方位支持。

本站内容部分由AI生成,仅供参考,具体业务可随时电话/微信咨询(18610359982)。