经过 4 个月真实使用,用 Dify 搭建了知识库问答、合同审核、周报生成等 5 个内部工具,分享全面的优缺点评测。
评测版本:Dify v0.9.x(私有化部署) 使用周期:4 个月 搭建应用数:5 个正式上线的内部工具
这是 Dify 最打动我的功能。把复杂的 AI 流程拆成节点,可以清楚看到每一步的输入输出:
[用户输入] → [意图分类] → [知识库检索] → [LLM 生成] → [输出]
│
└→ [超出范围] → [引导话术]
整个过程可视化,非技术同事也能理解逻辑,大大减少了沟通成本。
我们用不同模型做不同任务:
在 Dify 里切换模型只需在节点设置里选一下,不需要改任何代码。
内部知识库问答的准确率在使用「高质量索引」模式后达到约 87%(人工抽样评估 100 个问题)。关键是它会在回答中附上来源文档链接,用户可以点击验证。
每个应用可以选择发布方式:
当 Workflow 超过 20 个节点时,编辑器明显卡顿(MacBook Pro M2)。复杂流程建议拆分成多个子 Workflow。
每次文档更新,必须重新上传并重新索引。对于频繁变更的内容(如价格表),维护成本较高。期待后续版本支持增量同步。
代码执行节点的 Python 沙箱默认限制了很多标准库的使用(如 requests、subprocess)。遇到需要调用外部服务的场景,要么用 HTTP 请求节点替代,要么修改沙箱配置(会降低安全性)。
生产环境中出现问题时,日志搜索功能太简陋,无法按内容关键词搜索历史对话。排查用户问题时比较痛苦。
官方的应用分享页面在手机上布局错乱,字体过小。如果有移动端需求,需要自己基于 API 开发前端。
| 维度 | 评分 | 说明 |
|---|---|---|
| 功能完整性 | 9/10 | 覆盖绝大多数 LLM 应用场景 |
| 上手容易度 | 8/10 | 可视化编排非常友好 |
| 生产稳定性 | 8/10 | 4 个月零宕机 |
| 性能表现 | 7/10 | 节点多时有卡顿 |
| 社区活跃度 | 10/10 | 目前最活跃的开源 LLM 平台 |
| 综合 | 8.4/10 | 强烈推荐 |
非常适合:
需要额外工作:
如果你想快速落地 Dify,推荐通过 LocalClaw(insman.cn) 找有经验的服务商来处理部署和初始配置,让你的团队直接专注在应用搭建上。
用 ComfyUI 生产了数千张商业图像之后,从工作流灵活性、图像质量、学习曲线、商业可用性四个维度给出全面评测。
用了 6 个月的 Ollama,跑过 10+ 款模型,从速度、质量、易用性三个维度给出真实评测,附各模型性能对比数据。
从法务、HR、销售、运营、客服五个部门视角,分析 Dify 最适合解决的业务问题,含完整 Workflow 设计和预期收益。
总结 Dify 私有化部署中最典型的 8 个坑,包含完整的错误信息和修复步骤,帮你节省大量排查时间。