本地部署Deepseek-R1+知识库构建

本地部署Deepseek-R1+知识库构建

AI 摘要:本文介绍了在本地部署Deepseek-R1模型并构建知识库的步骤,主要分为五个部分。首先,用户需要安装Ollama软件,并通过命令行下载所需的模型。接着,通过访问指定的本地端口,可以在浏览器中查看模型的运行情况。然后,用户需要安装并配置AnythingLLM作为前端界面,在设置中输入Ollama的Base URL和选择对应的模型,以便更方便地进行交互。之后,可以通过上传文档来构建个性化的知识库,支持批量添加文件。此外,AnythingLLM提供了通过DataConnectors功能,从Github或特定网站爬取数据的方法。最后,文章展示了如何为本地模型添加网页搜索功能,以增强回答的准确性。总之,该过程为科研工作者提供了一个友好的AI使用体验,便于进行文献研究和信息查询。

科研工作者的 AI 使用指南

以下内容以 Macbook 为演示,Windows 电脑操作可能略有不同,但使用逻辑完全一样。点击链接观看视频https://www.bilibili.com/video/BV1ZwKVe6EBn

1. 安装Ollama

Ollama 目前提供一键安装包,根据自己的电脑系统下载对应版本 Ollama

image

下载完成后自行安装即可。

2. 下载需要的模型

安装完成后启动命令行窗口输入命令下载模型。

注意:很多同学没有用过命令行不知道在哪里启动,统一说一下:MacOS 用户在应用界面搜索打开“终端”(Terminal)应用;Windows 用户打开 PowerShell进行运行。操作非常简单,只需要复制粘贴按回车键,等待模型下载完毕即可。

具体命令可以通过点击官网Models后,搜索并选择所需要的模型后查看。

比如下图我选择 deepseek-r1 的 14b 模型,直接点击按钮即可复制这一行命令:

image

在命令行中粘贴这一行命令,并按回车键执行,就会自动下载该模型(下载过程需要科学上网),可以看见进度条:

image

下载完毕之后会自动运行该模型,我们可以尝试在终端中进行提问:

image

在启动 Ollama 之后,是会在后台运行的,默认端口为 11434,我们可以在浏览器中访问本机端口看一下:http://127.0.0.1:11434

image

3. 安装并配置AnythingLLM

上面可以看到效果非常不错,但是在终端中使用非常不美观且不方便,我们需要再安装配置一个前端界面。本文选择使用 AnythingLLM 作为前端使用,此软件安装非常简单,不需要使用到 docker,并且构建知识库时非常方便。安装和使用只需要少量计算机知识,对非 IT 领域的科研工作者比较友好。

我们这里直接下载,根据自己电脑系统进行选择:AnythingLLM桌面版

image

同样的,下载完成后自行安装,首次启动会有安装向导:

image

选择大模型。如下图所示设置使用Ollama,也就是我们前面下载的本地模型,然后设置参数

  • 指定Ollama Base URLhttp://127.0.0.1:11434
  • 指定Chat Model Selectiondeepseek-r1:14b
  • 指定Token context window8192

因为我之前已经安装过了,下面找了网上的图供参考,后续有其他设置选择默认的即可,进入软件之后我们随时都可以修改设置的。知识库名称自行定义即可。

image

进入软件之后,可以在设置中选择语言、修改模型等等:

image

我的模型设置如下,供参考:

image

回到主界面,可以新增、修改、删除工作区,点击上传按钮,可以在工作区中上传文档作为个性化的背景知识(也就是知识库):

image

添加文档时可以直接将整个文件夹拖动进去进行批量添加,非常方便。然后将需要的文档移动到知识库 2,Save and Embed ​即可。

image

点击 New Workspace​ 我们可以根据自己的需要创建多个相互隔离的工作区,New Thread​ 按键可以在当前工作区内添加新对话。

当然,AnythingLLM 除了可以上传本地知识库外,通过 DataConnectors​ 功能,我们也可以通过 github 仓库进行上传,甚至可以通过爬虫爬取指定网站的全部数据作为知识库(注意版权问题)。这部分功能下次有机会再讨论。

4.知识库效果演示

同样使用 14b 模型,我问一个文献中的问题:resistin 在心血管疾病中的作用研究进展?

知识库 1 (没有上传文档)的回答情况:

image

知识库 2(有参考文档)的回答情况:

image

5.扩展一:为本地大模型添加网页搜索功能

首先进入设置,修改以下内容:

image

有许多搜索引擎可以选择,最简单的就是 DuckDuckGo​,选择即可,不需要填写 api 信息,免费使用。

image

经过尝试,DuckDuckGo​效果还可以,当然如果需要更好的效果,更推荐使用 Google 引擎,但是需要申请 api,在下方链接自行申请:Google 搜索控制台

如果需要调用搜索,请在提问时@Agent:

image

调用搜索背后的逻辑是:通过第三方引擎如 DuckDuckGo 或 Google 进行关键测搜索,本地模型识别并阅读前 n 条结果,将内容进行总结。使用效果如下:

image

模型思考和回答:

image

6.扩展二:通过 api 调用 Deepseek

大多数情况下我们个人电脑的配置只能运行蒸馏后(distilled)的小模型(比如 7b 或 14b,好一点的能用 32b),无法发挥 deepseek 的全部潜力,而我们可以用通过调用 api 的形式使用更完整的模型。但是请注意,如果您的隐私需要较高,请优先使用本地模型,因为任何第三方模型都有可能泄露您的对话内容。

deepseek 官方 api

由于 deepseek 目前实在太火,官网的对话功能也经常宕机,官方的 api 目前不太好申请。

image

groq免费api:70b模型

groq 提供免费的 70b 模型 api,有速率限制。登录和使用 groq 需要科学上网,并且很多国内邮箱无法注册,建议使用谷歌登录。

image

硅基流动付费api满血:满血 671b 模型

这是目前能够找到的最稳定的满血模型 api,推荐使用,请注意价格。

SiliconFLOW 硅基流动目前有活动,新用户注册时填写邀请码:vCnxCugh​ 可获得 2000 万 token 的免费额度(折合 14 元 rmb)。

image

个人使用通常需要考虑费用问题,建议日常简单任务使用本地模型,复杂任务可以临时调用 api 访问满血模型。这在 AnythingLLM 中可以很方便的切换。

参考链接

  1. Deepseek 官网
  2. Deepseek 开源项目
  3. Ollama下载
  4. AnythingLLM 下载链接
  5. Google 搜索控制台申请搜索 api
  6. groq 免费 api
  7. SiliconFLOW 硅基流动 满血版 R1 模型

本文介绍了在本地部署Deepseek-R1模型并构建知识库的步骤,主要分为五个部分。首先,用户需要安装Ollama软件,并通过命令行下载所需的模型。接着,通过访问指定的本地端口,可以在浏览器中查看模型的运行情况。然后,用户需要安装并配置AnythingLLM作为前端界面,在设置中输入Ollama的Base URL和选择对应的模型,以便更方便地进行交互。之后,可以通过上传文档来构建个性化的知识库,支持批量添加文件。此外,AnythingLLM提供了通过DataConnectors功能,从Github或特定网站爬取数据的方法。最后,文章展示了如何为本地模型添加网页搜索功能,以增强回答的准确性。总之,该过程为科研工作者提供了一个友好的AI使用体验,便于进行文献研究和信息查询。

© 版权声明
THE END
喜欢就支持一下吧
点赞1赞赏 分享
评论 抢沙发
头像
欢迎您留下宝贵的见解!
提交
头像

昵称

取消
昵称表情代码图片

    暂无评论内容