DeepSeek投喂数据,本地大模型联网搜索,让它更聪明

1. 目的

投喂数据使得我们的模型在专业领域中更加聪明。

更新模型中的原有数据库,时期获得最新领域动态。

一定程度的续写能力,让它更具有创造性。

2. 准备 page assist chrome 插件 或 firefox 插件

在浏览器上述两个任意浏览器中的拓展应用中心中搜索 page assist 点击添加安装。

page

3.联网检索

打开左上角的设置,在第一项 一般设置 中向下翻,找到搜索引擎设置,选择搜索引擎为sougou(其他非科学上网的情况下,不好用),点击保存。

search-1

3.下载数据处理模型

在ollama的官网,找到 models , embeding 复制第一或第二个模型名称旁的命令。

embeding

然后在 cmd 输入命令,如:

  1. ollama pull nomic-embed-text

down

待下载完成后,回到pageassist中,点击右侧设置图标,在左侧菜单中找到 RAC 设置 ,在第一个下拉选项选择你刚下好的处理模型并保存。

rac

4.投喂数据

在pageassist中,点击左侧知识管理,在右侧表单提交知识内容,可以选择txt md pdf格式的内容,vsc格式有识别不到内容的情况发生。

提交内容可以一次提交多个文件,没已批次提交的内容即为一个类型的知识库。

可以在下面的设置中设置一次性提交文件的数量,模型同时检索采纳的文件数量。

在提交后,会有 处理中(数据向量化) 字样 处理成功后,返回聊天界面,测试效果。

know

5.测试效果

在聊天界面,输入你想搜索的内容,在提交前,点击 知识 图标,提交后,模型会基于你提交的知识库内容的内容作出回复。

ask

比如:

我们提交一篇2024美国大选结果的新闻作为知识内容,由于模型内既有数据是不包括该结果的,在投喂前,模型是无法给出正确答案的。

当我们投喂并带着投喂的知识内容进行提问,模型会为我们提供相关的答案。

6应用场景

  • 个人应用:快速对比,快速检索,快速学习,快速解决问题。
  • 企业应用:专有内容库、专业领域智能客服
  • 教育应用:专有知识库

可能的应用场景还有很多,大家可以多多尝试。

7. 注意事项

  • 模型加载知识库内容会降低推理效率,注意合理利用本地硬件资源
  • 部分场景下,要对知识库的及时更新
  • 联网搜索功能和检索本地知识库,在page assist 中只能同时使用一种

8. 下节预告

如果你使用的是LM studio 部署,使用anythingLLM 投喂数据。

关于我

关于我,半个程序员,实战派和落地派,主要追求提升效率和具体场景的问题解决,不搞噱头,不搞营销,欢迎大家关注或加入交流群。

© 版权声明
THE END
喜欢就支持一下吧
点赞15赞赏 分享
评论 抢沙发

请登录后发表评论

    暂无评论内容