🤖️ 一种利用 ChatGLM-6B + langchain 实现的基于本地知识的 ChatGLM 应用。
💡 受 GanymedeNil 的项目 document.ai 和 AlexZhangji 创建的 ChatGLM-6B Pull Request 启发,建立了全部基于开源模型实现的本地知识问答应用。
✅ 本项目中 Embedding 选用的是 GanymedeNil/text2vec-large-chinese,LLM 选用的是 ChatGLM-6B。依托上述模型,本项目可实现全部使用开源模型离线私有部署。
⛓️ 本项目实现原理如下图所示,过程包括加载文件 -> 读取文本 -> 文本分割 -> 文本向量化 -> 问句向量化 -> 在文本向量中匹配出与问句向量最相似的top k
个 -> 匹配出的文本作为上下文和问题一起添加到prompt
中 -> 提交给LLM
生成回答。
🚩 本项目未涉及微调、训练过程,但可利用微调或训练对本项目效果进行优化。
[2023/04/07]
- 解决加载 ChatGLM 模型时发生显存占用为双倍的问题 (感谢 @suc16 和 @myml) ;
- 新增清理显存机制;
- 新增
nghuyong/ernie-3.0-nano-zh
和nghuyong/ernie-3.0-base-zh
作为 Embedding 模型备选项,相比GanymedeNil/text2vec-large-chinese
占用显存资源更少 (感谢 @lastrei)。
[2023/04/09]
- 使用
langchain
中的RetrievalQA
替代之前选用的ChatVectorDBChain
,替换后可以有效减少提问 2-3 次后因显存不足而停止运行的问题; - 在
knowledge_based_chatglm.py
中增加EMBEDDING_MODEL
、VECTOR_SEARCH_TOP_K
、LLM_MODEL
、LLM_HISTORY_LEN
、REPLY_WITH_SOURCE
参数值设置; - 增加 GPU 显存需求更小的
chatglm-6b-int4
、chatglm-6b-int4-qe
作为 LLM 模型备选项; - 更正
README.md
中的代码错误(感谢 @calcitem)。
[2023/04/11]
- 加入 Web UI V0.1 版本(感谢 @liangtongt);
README.md
中增加常见问题(感谢 @calcitem);- 增加 LLM 和 Embedding 模型运行设备是否可用
cuda
、mps
、cpu
的自动判断。 - 在
knowledge_based_chatglm.py
中增加对filepath
的判断,在之前支持单个文件导入的基础上,现支持单个文件夹路径作为输入,输入后将会遍历文件夹中各个文件,并在命令行中显示每个文件是否成功加载。
-
ChatGLM-6B 模型硬件需求
量化等级 最低 GPU 显存(推理) 最低 GPU 显存(高效参数微调) FP16(无量化) 13 GB 14 GB INT8 8 GB 9 GB INT4 6 GB 7 GB -
Embedding 模型硬件需求
本项目中默认选用的 Embedding 模型 GanymedeNil/text2vec-large-chinese 约占用显存 3GB,也可修改为在 CPU 中运行。
本项目已在 python 3.8 环境下完成测试。
pip install -r requirements.txt
注:使用 langchain.document_loaders.UnstructuredFileLoader 进行非结构化文件接入时,可能需要依据文档进行其他依赖包的安装,请参考 langchain 文档
执行 webui.py 脚本体验 Web 交互
python webui.py
执行后效果如下图所示: Web UI 中提供的 API 接口如下图所示: Web UI 可以实现如下功能:
- 自动读取
knowledge_based_chatglm.py
中LLM
及embedding
模型枚举,选择后点击setting
进行模型加载,可随时切换模型进行测试 - 可手动调节保留对话历史长度,可根据显存大小自行调节
- 添加上传文件功能,通过下拉框选择已上传的文件,点击
loading
加载文件,过程中可随时更换加载的文件 - 底部添加
use via API
可对接到自己系统
或执行 knowledge_based_chatglm.py 脚本体验命令行交互
python knowledge_based_chatglm.py
Q1: 本项目支持哪些文件格式?
A1: 目前已测试支持 txt、docx、md 格式文件,更多文件格式请参考 langchain 文档。目前已知文档中若含有特殊字符,可能存在文件无法加载的问题。
Q2: 读取特定格式文件时遇到缺少detectron2
时如何解决?
A2: 因该包安装过程中遇到问题较多,且仅部分格式文件需要,所以未加入requirements.txt
。可以通过一下命令安装
pip install "detectron2@git+https://github.com/facebookresearch/detectron2.git@v0.6#egg=detectron2"
Q3: Resource punkt not found.
如何解决?
A3: https://github.com/nltk/nltk_data/raw/gh-pages/packages/tokenizers/punkt.zip 中的 packages/tokenizers
解压,放到 Searched in:
对应目录下。
Q4: Resource averaged_perceptron_tagger not found.
如何解决?
A4: 将 https://github.com/nltk/nltk_data/blob/gh-pages/packages/taggers/averaged_perceptron_tagger.zip 下载,解压放到 Searched in:
对应目录下。
Q5: 本项目可否在 colab 中运行?
A5: 可以尝试使用 chatglm-6b-int4 模型在 colab 中运行,需要注意的是,如需在 colab 中运行 Web UI,需将webui.py
中demo.queue(concurrency_count=3).launch( server_name='0.0.0.0', share=False, inbrowser=False)
中参数share
设置为True
。
以问题chatglm-6b 的局限性具体体现在哪里,如何实现改进
为例
未使用 langchain 接入本地文档时:
ChatGLM-6B 是一个基于 GPT-3 的聊天机器人,它的局限性主要体现在以下几个方面:
- 语言模型的精度:GPT-3 是一种大型的语言模型,它的精度比较高,但是仍然有一些局限性。例如,它可能无法准确地理解某些方言、口音或者复杂的句子结构。
- 知识图谱的完整性:GPT-3 可以生成一些知识图谱,但是其完整性和准确性可能不够。例如,它可能无法准确地理解某些领域的专业知识和术语。
- 对话生成的连贯性:GPT-3 可以生成一些连贯的对话,但是其生成的对话可能不够自然。例如,它可能会生成一些虚假的、不连贯的对话或者误解用户的意图。
为了改进 ChatGLM-6B,可以考虑以下几个方面:
- 提高语言模型的精度:可以通过增加训练数据、使用更好的语言模型架构、优化模型训练过程等方式来提高语言模型的精度。
- 增强知识图谱的完整性:可以通过增加知识图谱的维度、使用更好的知识图谱构建方法、优化知识图谱的匹配算法等方式来增强知识图谱的完整性。
- 提高对话生成的连贯性:可以通过增加对话生成模型的上下文信息、使用更好的上下文信息提取方法、优化对话生成模型的算法等方式来提高对话生成的连贯性。
- 引入更多的人类反馈:人类反馈可以帮助 ChatGLM-6B 更好地理解用户的意图和需求,从而提高对话生成的质量和准确性。可以通过引入更多的人类客服、使用人类反馈收集器等方式来引入更多的人类反馈。
使用 langchain 接入 ChatGLM-6B 项目的 README.md 文件后 ChatGLM 的回答:
ChatGLM-6B 是一个基于深度学习的自然语言处理模型,它在回答问题方面表现出色。但是,它也有一些局限性,具体如下:
- 语言理解有限:ChatGLM-6B 只学习了中文自然语言,对于其他语言可能会存在理解上的局限性。
- 知识储备不足:ChatGLM-6B 的训练数据集只包含了中文语料,因此它可能无法回答一些非中文的问题或者某些特定领域的问题。
- 数据量有限:ChatGLM-6B 的训练数据集只有几百万条记录,因此它可能无法回答一些非常具体或者复杂的问题。
为了改进 ChatGLM-6B,可以考虑以下几个方面:
- 学习更多的语言知识:可以学习其他语言的自然语言处理技术,扩大语言理解的范围。
- 扩大知识储备:可以收集更多的中文语料,或者使用其他语言的数据集来扩充知识储备。
- 增加数据量:可以使用更大的数据集来训练 ChatGLM-6B,提高模型的表现。
- 引入更多的评估指标:可以引入更多的评估指标来评估模型的表现,从而发现 ChatGLM-6B 存在的不足和局限性。
- 改进模型架构:可以改进 ChatGLM-6B 的模型架构,提高模型的性能和表现。例如,可以使用更大的神经网络或者改进的卷积神经网络结构。
- 实现 langchain + ChatGLM-6B 本地知识应用
- 基于 langchain 实现非结构化文件接入
- .md
- .pdf(需要按照常见问题 Q2 中描述进行
detectron2
的安装) - .docx
- .txt
- 增加更多 LLM 模型支持
- THUDM/chatglm-6b
- THUDM/chatglm-6b-int4
- THUDM/chatglm-6b-int4-qe
- 增加 Web UI DEMO
- 利用 gradio 实现 Web UI DEMO
- 添加模型加载进度条
- 添加输出内容及错误提示
- 国际化语言切换
- 引用标注
- 利用 fastapi 实现 API 部署方式,并实现调用 API 的 web ui DEMO
🎉 langchain-ChatGLM 项目交流群,如果你也对本项目感兴趣,欢迎加入群聊参与讨论交流。