一、部署环境

操作系统:Windows 10

python:3.10

Langchain-Chatchat v0.3.1

二、部署过程

搭建 conda 虚拟环境

下载 conda

https://www.anaconda.com/download

1741097882503-91c80f47-acb8-480f-8d3f-f25953154082.png

安装 conda

下载安装时建议以管理员身份运行

1741097302988-287ee9c0-5980-4374-92ea-ffd640c5b193.png

配置 PATH

1741098053591-f7df54fd-c9c5-4f9b-9a46-00b1495b1553.png

测试 conda

打开 cmd ,输入:conda --help

1741098129919-af1ccbff-e761-4869-a495-5390d88f17c7.png

安装配置成功

创建虚拟环境

chatchat 支持 python 3.8 -> 3.11,这里创建一个 3.10 环境

conda create -n chatchat python=3.10

常用 conda 命令

# 激活环境
conda activate
# 退出环境
conda deactivate
# 列出所有环境
conda env list
# 删除环境
conda env remove -n 环境名

配置 ollama 环境

下载安装 ollama

https://ollama.com/

1741104734300-41ca745e-4e25-4d32-a9ec-96e8604392e4.png

1741105360993-2ac5ab94-b8cf-4257-b226-49128d120ba8.png

修改模型存储位置

新建一个系统变量,用于存储 Ollama 模型位置

1741432377793-52fa2754-05d9-4cf3-a577-1b0e72b66c61.png

下载模型

下载 deepseek-r1 7b

https://ollama.com/library/deepseek-r1:7b

ollama run deepseek-r1:7b

1741535452889-33bfd081-d50e-4bcb-9da6-5cd9e2ade0ae.png

下载一个向量模型

https://ollama.com/quentinz/bge-large-zh-v1.5

ollama pull quentinz/bge-large-zh-v1.5

1741528602221-f08681fd-276d-4207-8936-a6e600fff0da.png

搭建 chatchat 环境

https://github.com/chatchat-space/Langchain-Chatchat

在 chatchat 的虚拟环境中,安装 chatchat

pip install langchain-chatchat -U

新建一个目录,进行 chatchat 项目初始化

chatchat init

1741536615562-d080c768-fbdb-46c3-b17c-e7d6c252777b.png

初始化成功后在项目目录中修改model_settings.yaml 文件,LLM模型设置 deepseek-r1:7b,Embedding设置 bge-large-zh-v1.5

1741536562952-c38f4bab-30ad-4bc9-9b6b-e15b0b39703b.png

配置 model_setting.yaml

1741537207578-1eb5ea21-ce9c-45c8-b33f-89000617b995.png

1741537265247-43f8c422-4a5c-4457-b916-585d900d7be9.png

初始化知识库

chatchat kb -r

启动服务

chatchat start -a

启动成功,可以进行对话或建立本地知识库对话

1741840123962-788fd830-55ba-4c75-9c6c-0f668cb25975.png

三、部署问题

启动Langchain-Chatchat 时遇到以下问题:

1741538045968-02a35421-00da-4d44-9ba0-f42a852c5bcc.png

解决方法:

查看httpx版本

pip list

如果 httpx==0.28.0 是不行的,需要0.27.2版本才可以,重新安装后就不会报错了

pip install --force-reinstall httpx==0.27.2

知识库文档向量转换问题: Resource averaged_perceptron_tagger not found

解决方法:

https://zhuanlan.zhihu.com/p/907981580

ollama pull 下载模型超时

1741432486789-06225682-9593-438f-8dc0-b62cffb0f830.png

解决方法:

  1. 代理的问题:尝试设置网络代理
set http_proxy=http://127.0.0.1:7890
set https_proxy=http://127.0.0.1:7890
  1. SSL 证书问题:该错误可能与 SSL 证书问题有关,例如自签名证书。如果您处于可以信任证书的受控环境中,则可以考虑将 --insecure 标志与 ollama pull 命令一起使用,以绕过 SSL 证书验证。但是,请谨慎使用这种方法,因为它可能会使您面临安全风险。
ollama pull quentinz/bge-large-zh-v1.5 --insecure

https://github.com/ollama/ollama/issues/3504

四、参考资料

Ollama

Langchain-Chatchat

https://blog.csdn.net/ANONYMOUSLAI/article/details/145611994

最后修改:2025 年 03 月 13 日
如果觉得我的文章对你有用,请随意赞赏