AI大模型知识库问答系统,手把手教你构建一个 本地化的,免费的,企业级的

我将通过一个系列分享,手把手的教大家打造一个完全本地化的,免费的,企业级知识库问答系统

本地大模型回答演示图

知识库导入演示图

我认为本地化主要有2方面的意义:

  1. 安全性:当使用外部模型或服务时,我们的私有数据,用户问题,都会被发送给第三方 那我们就要面临私有数据暴露给别人的风险,甚至会导致数据泄露 本地化会让我们的数据就更安全
  1. 灵活性:另外随着我们的业务发展,如果模型不能很好的满足我们需求的时候 我们可以很方便的对本地模型其进行微调 以达到更好的适配
这样就既兼顾了安全,又兼顾了灵活性

应用场景

知识库问答的使用场景其实非常多,我随便举2个商业系统的例子
比如对个人,可以用来整理笔记论文解读文献检索文档问答等等。 这里我用 轻闪PDF的文档对话 https://lightpdf.cn/chatdoc 来演示一下效果。
我们随便上传一个PDF文档,等文档解析完成后,我们就可以通过提问的方式,对文档里面的内容进行解读,可以很快的从文档中找到我们想要的内容, 大大提高我们查看文档的效率
对企业,可以用来做智能客服数据沉淀或者数字员工等等,同样我用思乎的在线客服 https://gitmind.cn 来演示一下。

我们可以向客服提问,AI就会准确的回复我们的问题,而这些问题的答案,大模型本身是没有的。 因为大模型既不了解我们的业务,也不知道我们的数据,这些AI回复的答案,都是从企业的知识库里面获取的。这样我们就实现了一个7×24小时的智能客服, 不仅为企业降本增效,还提高了客户的满意度

服务器配置要求

环境 最低配置 推荐配置
测试 2核 2GB 2核 4GB
100w 组向量 4核 8GB 50GB 4核 16GB 50GB
500w 组向量 8核 32GB 200GB 16核 48GB 200GB
1000w 组向量 16核 48GB 200GB 32核 64GB 500GB

架构图

整个的系统搭建,都是基于这个架构图来进行的

RAG原理是什么

  • 检索:Retrieval,通过向量模型,或者多种混合检索方式,从知识库中检索出相关的文档
  • 增强:Augmentation,通过将检索到的文档,附加到提示词中,进行增强。也即 ICL(In Context Learning)
  • 生成:Generation,通过大语言模型,生成答案

有什么优势

  1. 有助于减轻大模型的幻觉,提高大模型回复的准确性
  2. 与微调不同,RAG提供了一定的可观察性和可检查性
  3. 成本低,好实施

    安装 Docker

    安装 Ollama

    下载 Ollama 并安装 https://ollama.com/

    下载 Chat 模型

    我使用阿里的通义千问作为演示,根据自己的电脑配置情况,选择合适的模型。
    总体来说,模型是越大,效果越好,但是对电脑的配置要求也越高
    • 4b 模型要 3GB内存
    • 7b 模型要 8GB 内存
    • 13b 模型要 16GB 内存
    • 70b 模型要 64GB 内存
    特别注意:你如果要用于商业用途,需要申请授权,否则只能用于个人学习

    下载模型

    ollama pull qwen:7b

    测试API请求

    等模型下载和安装好后,执行下面的命令,测试API请求是否成功
    Mac/Linux下执行:
    curl 'http://localhost:11434/api/chat' \
    --data '{
    "model": "qwen:7b",
    "messages": [
    {
    "role": "user",
    "content": "你是谁"
    }
    ],
    "temperature": 0.1,
    "stream": false
    }'
    Windows下执行:
    curl "http://localhost:11434/api/chat" ^
    --data "{""model"": ""qwen:7b"", ""messages"": [{""role"": ""user"", ""content"": ""你是谁""}], ""temperature"": 0.1, ""stream"": false}"

    下载 Embedding 模型

    我使用了 DmetaSoul 的中文Embedding模型,该模型号称在 MTEB 中文榜单取得开源第一的成绩: https://huggingface.co/DMetaSoul/Dmeta-embedding-zh/blob/main/README_zh.md

    下载模型

    ollama pull shaw/dmeta-embedding-zh

    测试API请求

    等模型下载和安装好后,执行下面的命令,测试API请求是否成功
    Mac/Linux下执行:
    curl 'http://localhost:11434/api/embeddings' \
    --data '{
    "model": "shaw/dmeta-embedding-zh",
    "prompt": "天空是灰色的"
    }'
    Windows下执行:
    curl "http://localhost:11434/api/embeddings" ^
    --data "{""model"": ""shaw/dmeta-embedding-zh"", ""prompt"": ""天空是灰色的""}"

    安装FastGPT及其依赖

    1. 下载 docker 文件 和 config 文件

    你可以手动下载以下两个文件,放到同一个文件夹里面
    • config.json

      1. 启动 docker

      运行终端,在刚刚下载的文件夹目录下运行以下命令:
      docker-compose up
      注意
      • 第一次启动会有点慢,因为要拉取镜像,后面启动就会很快了
      • 如果第一次启动失败,可以多次执行 docker-compose up

        1. 访问 FastGPT 和 OneAPI

        你第一次访问,系统里面是没有数据的,截图里面的数据,是我测试的时候已经创建好了的。

        FastGPT

        点击访问:http://localhost:3000
        用户名 root,密码 1234(密码可以在 docker-compose.yml 环境变量里设置 DEFAULT_ROOT_PSW 进行修改)

        OneAPI

        点击访问:http://localhost:3001
        用户名 root,密码 123456

      • 配置OneAPI

        1. 配置大语言模型

        1. 类型:Ollama
        2. 名称:ollama-qwen:7b
        3. 模型:输入自定义模型名称,qwen:7b
        4. 密钥:随便填,比如 123
        5. 代理:http://host.docker.internal:11434
        1. 配置Embedding向量模型

        1. 类型:Ollama
        2. 名称:ollama-dmeta-embedding-zh
        3. 模型:输入自定义模型名称,shaw/dmeta-embedding-zh**,比如
        4. 密钥:随便填,比如 123
        5. 代理:http://host.docker.internal:11434
        特别注意:
        1. 模型 必须和 ollama 安装的模型名称保持一致,可以使用 ollama list 命令查看
        2. 代理地址 必须是 http://host.docker.internal:11434,这样 OneAPI 才能访问到 ollama
        默认情况下,Docker 使用的是 桥接模式 启动服务,即容器使用 Docker 自己创建的虚拟网络,容器之间可以相互通信,但是它们无法直接访问宿主机(即你的电脑)上的网络服务。
        但是 Ollama 是运行在你的电脑上的, 而 OneAPI 是运行在 Docker 容器里面的,所以 OneAPI 无法直接访问 Ollama。
        docker 官方提供了一种支持方案,可通过指向 host.docker.internal 来指向宿主机的 IP。

        配置FastGPT

        我们先创建一个简单的应用,实现一个基本的AI对话,目的是测试OneAPI的接口以及Ollama的接口是否正常。
        未完待续
常见问题
免费下载或者学员专属资源能否直接商用?
本站所有资源均是基于GitHub上的开源项目或网络上整理收集,同时进行优化调试整合修复等深度二次开发出来的成果,因此理论上版权仍属于原作者所有,故所提供资源均仅供AIGC技术学习,切勿用于非法用途,也请勿直接商用。若由于商用引起版权纠纷,一切责任均由使用者承担。更多说明请参考资源包内的声明。
提示下载完但解压或打开不了?
最常见的情况是下载不完整: 可对比下载完压缩包的与网盘上的容量,若小于网盘提示的容量则是这个原因。不要用Windows系统自带解压,不要用360解压,建议用winrar进行解压(下载地址:https://www.winrar.com.cn/)。软件或迅雷下载。 若排除这种情况,可在对应资源底部留言,或联络我们。
找不到素材资源介绍文章里的示例图片?
一般我们提供的资源整合包文件里,均内置了示例文件,方便您可以快速的测试使用。但文章内用于介绍的图片并不一定会包含在对应的可供使用的素材包内。这此相关素材可能会涉及到商业版权,故不负责(也没有办法)为你提供出处。同样的一些字体文件也是这种情况。
消耗积分后无法显示下载地址或者无法查看内容?
如果您已经消耗积分但是网站没有弹出成功提示,请联系站长提供积分消耗信息为您处理
消耗积分获取该资源后,可以退款吗?
本站资源属于虚拟商品,具有可复制性,可传播性,一旦授予,不接受任何形式的退款、换货要求。请您在支付获取之前确认好 是您所需要的资源
声明: ① 本站所有资源均是基于GitHub上的开源项目或网络上整理收集,同时进行优化调试整合修复等深度二次开发出来的成果,因此理论上版权仍属于原著者所有,故所提供资源均仅供AIGC技术学习,切勿用于非法用途,也请勿直接商用。若由于商用引起版权纠纷,一切责任均由使用者承担。更多说明请参考资源包内的声明。 ② 本站所有文章,如无特殊说明或标注,均为本站原创发布。任何个人或组织,在未征得本站同意时,禁止复制、盗用、采集、发布本站内容到任何网站、书籍等各类媒体平台。如若本站内容侵犯了原著者的合法权益,可联系我们进行处理。
0

评论1

请先
视频去水印去字幕_一键整合包(自主二开)
视频去水印去字幕_一键整合包(自主二开)
1分钟前 有人购买 去瞅瞅看

站点公告

感谢您访问-【子禾AI的工具资料库】

🎁限时福利:学员费用限时折扣(加V咨询)

每日签到赢算力点,解锁付费资源

🌟我们的优势:全站资源98%独立二次开发,💯亲测无BUG包更新

💪技术过硬,售后无忧。计算机专业、程序员、网络及软硬件工程师,人工智能讲师,相关资质点击查验

【子禾AIGC学堂】学技能 创辉煌!点击加入

本站资源属于虚拟服务,一经下载恕不退换

请认真阅读软件配置要求,确定电脑满足配置要求再支付算力点

如有任何疑问,提交工单或联系微信:ziheAI567

🤝承接工作流需求定制&AI工具深度开发🤝 🤝承接工作流需求定制&AI工具深度开发🤝  
显示验证码
没有账号?注册  忘记密码?