喜欢的条友记得关注、点赞、转发、收藏,你们的支持就是我最大的动力源泉。
前期安装教程:
Ubuntu24.04安装、运行Ollama详细教程(包括一些踩坑解决办法)
Ubuntu + Ollama + Dify 0.6.16 实现本地大模型及图形化界面绝配。
不断有朋友询问有关能够运行大型模型所需的计算机配置信息,实际上,所需的基本配置并不高。现将我此前撰写的教程分享如下,供大家参考。
【手把手包会】Python + Ollama + Qwen2 实现本地大语言模型简单调用
昨日,Dify v0.11.0 版本更新,带来工作流程改进、知识库功能更新、提供程序和模型的扩展、VDB 集成、修复和增强以及文档方面的变化等。
? 工作流程改进
- ? 闪亮的焦点:迭代节点并行模式 - 迭代节点现在支持并行处理,并增强了错误处理,从而提高了您的工作效率。这确保了更顺畅、更高效的工作流程。
- 支持对话中的表单:通过集成的表单支持简化您的对话功能。
- 可配置的工作流文件上传限制:现在,您可以限制工作流文件上传以更好地控制系统资源。
- 使用非结构化 API 提取 PPTX 数据:使用最新非结构化 API 支持简化 PPTX 数据解析。
- 带有 LLM 指标的提示生成器:使用来自 LLM 指标的额外上下文见解轻松制作提示。
知识库功能
- Knowledge API 更新:原始数据集命中测试 API 已更新为从知识库中检索数据块。用户可以通过此 API 将 Dify 的 Knowledge 作为独立服务进行访问。
- 优化的全文和 YAML 支持:在 Elasticsearch 中检索前 k 个结果并在文档节点中使用 YAML。
提供程序和模型
- xAI Model Provider:提供的新 xAI Provider 拓宽您的选择。
- Anthropic 的 Claude 3.5 Haiku:使用 Anthropic 的最新模型“claude-3-5-haiku-20241022”扩展您的工具包,该模型提供新的创意 AI 机会。
- Ernie-4.0-turbo-128k LLM:拥抱文心最新的 LLM 产品的力量。
- VESSL AI OpenAI API 兼容性:与 VESSL AI 模型轻松集成。
- GPUStack 模型提供程序:使用 GPUStack 提供程序满足您的计算密集型需求。
- 适用于 Bedrock 的 Claude 3.5 Haiku:通过 Amazon Bedrock 集成“claude-3-5-haiku-20241022”来释放创意 AI。
? VDB 集成
- Couchbase VDB 集成:解锁 Couchbase 作为矢量数据库的强大功能。
- OceanBase 作为矢量商店选项:探索 OceanBase 的高级矢量管理。
- Lindorm 作为载体存储选项:发现 Lindorm 以增强载体存储功能。
修复和增强
- 异步预加载以实现快速启动:从异步预加载加速您的服务器。
- 强大的重新排序和检索验证:优化搜索,增强验证完整性。
- 内容类型标头灵活性:告别区分大小写问题。
- 安全的输入和索引处理:修复来确保输入可靠性和索引。
- 可靠的对话变量:改进,保持数据流的一致性和准确性。
文件
- 添加:巴西葡萄牙语的 README_PT.md:使用巴西葡萄牙语版本扩展您的文档范围。
此版本使我们的平台更加强大和通用,可满足您对更高效、功能更丰富的环境的需求。立即升级以探索可能性!
升级指南
Docker compose组合部署
1.备份自定义的docker-compose YAML文件(可选)
cd docker
cp docker-compose.yaml docker-compose.yaml.$(date +%s).bak
2.从主分支获取最新代码
git checkout main
git pull origin main
3.停止服务,命令,请在docker目录下执行
docker compose down
4.备份数据
tar -cvf volumes-$(date +%s).tgz volumes
5.Upgrade services 升级服务
docker compose up -d
源代码部署
1.停止API服务器、Worker和Web前端服务器。
2.从主分支获取最新代码:
git checkout 0.11.0
3.更新Python依赖项:
cd api
poetry install
4.然后,让我们运行迁移脚本:
poetry run flask db upgrade
5.最后,再次运行API服务器、Worker和Web前端服务器。
喜欢的条友记得关注、点赞、转发、收藏,你们的支持就是我最大的动力源泉。