昨天分享了如何将DeepSeek部署在自己的电脑上,有小伙伴在后台留言问:如何将模型与本地文档联系起来?
所以今天,我们就来一起看看如何用DeepSeek搭建个人知识库。
有两种方法,一个是用API搭建知识库,这种方法的好处是能用上满血的DeepSeek R1模型,但前提是你的数据不涉密。
另一种方法是通过本地部署搭建知识库,这样能保护数据安全,但算力可能就没那么充足了。
一、利用API搭建知识库
1. 进入Cherry官网,下载Cherry Studio
https://cherry-ai.com/download
2. 登录/注册硅基流动,获取API
进入硅基流动官网,注册并登录账号,新用户注册即得2000万tokens。
https://cloud.siliconflow.cn/i/TAAOvaXg
点击左侧【API密钥】。
点击【新建密钥】。
点击即可复制密钥。
3. 配置API Key并检查
打开下载好的Cherry Studio,按以下路径配置API密钥。
点击【检查】,确认密钥是否有效。
4. 配置嵌入模型(向量数据库)
为了让 AI 在本地文档中查找信息,我们需要配置嵌入模型,将文本转换成向量数据。
回到硅基流动官网,点击【模型广场】,选择【嵌入】。
推荐嵌入模型BAAI/bge-m3,或更高精度的 Pro/BAAI/bge-m3。
点击你需要的模型,复制其名称。
打开Cherry,按下图路径添加模型。
粘贴模型名称,点击【添加模型】。
5. 上传本地文档
点击Cherry左侧【知识库】,创建知识库,并选择刚刚配置的嵌入模型。
接下来我们就可以上传本地文件,PDF、Word、Markdown等,让AI进行向量化处理。
除了添加文件外,还可以添加目录、网址等,很方便。
6. 测试AI知识库效果
点击左侧栏【助手】,添加助手,选择DeepSeek R1模型。
开始提问,查看AI是否优先从本地文档中搜索答案。
二、 本地部署搭建知识库
首先我们需要将DeepSeek部署到本地,具体的流程和操作方法可以看昨天的文章。
本地部署完后,打开Cherry,按下图路径添加本地部署的R1模型。
接下来我们就可以上传本地文件,PDF、Word、Markdown等,让AI进行向量化处理。
文件量化成功后,点击左侧栏第一个图标,按下图步骤选择已部署的本地模型。
最后可以开始提问,查看AI是否优先从本地文档中搜索答案。
以上是两种利用DeepSeek搭建个人知识库的方法,感兴趣的小伙伴快试试吧~