一句话总结:python版本适合快速体验新功能,docker版本适合二次开发并用于实际生产环境,新功能暂缓支持
特性 | python版本 | docker版本 | 说明 |
---|---|---|---|
详细安装文档 | ✅ 详情 | ✅ 详情 | |
API支持 | ✅ 详情 | ✅ 详情 | |
生产环境(小型生产环境) | ❌ | ✅ | |
断网安装(私有化部署) | ❌ | ✅ 详情 | |
支持多并发 | ❌ | ✅ 详情 | python在使用API而非本地大模型时可手动设置:详情 |
支持多卡推理 | ❌ | ✅ 详情 | |
支持Mac(M系列芯片) | ✅ | ❌ | 目前在mac下运行本地LLM依赖llamacpp,问答速度较慢(最长数分钟),建议使用Openai-API的方式调用模型服务 |
支持Linux | ✅ | ✅ | python版本Linux下默认使用onnxruntime-gpu,glibc<2.28时自动切换为onnxruntime |
支持windows WSL | ✅ | ✅ | |
支持纯CPU环境 | ✅ 详情 | ❌ | |
支持混合检索(BM25+embedding) | ❌ | ✅ | |
支持联网检索(需外网VPN) | ✅ 详情 | ❌ | docker版本计划中 |
支持FAQ问答 | ✅ 详情 | ❌ | docker版本计划中 |
支持自定义机器人(可绑定知识库,可分享) | ✅ 详情 | ❌ | docker版本计划中 |
支持文件溯源(数据来源可直接点击打开) | ✅ 详情 | ❌ | docker版本计划中 |
支持问答日志检索(暂只支持通过API调用) | ✅ 详情 | ❌ | docker版本计划中 |
支持解析语音文件(依赖faster_whisper,解析速度慢) | ✅ | ❌ | docker版本计划中,上传文件时可支持mp3,wav格式文件 |
支持OpenCloudOS | ✅详情 | ❌ | |
支持与OpenAI接口兼容的其他开源大模型服务(包括ollama) | ✅ 详情 | ✅ 详情 | 需手动修改api_key,base_url,model等参数 |
pdf(包含表格)解析效果+++ | ✅ 详情:需手动开启 | ❌ | 单独使用pdf解析器 |
用户自定义配置(实验性:提升速度) | ✅ 详情:需手动开启 | ❌ | |
其他文件类型解析效果+++ | ❌ | ❌ | 预计下个版本发布(15d) |
docker版本安装攻略(Linux或Win11 WSL环境)
System | Required item | Minimum Requirement | Note |
---|---|---|---|
Linux | NVIDIA GPU Memory | >= 4GB (use OpenAI API) | 最低: GTX 1050Ti(use OpenAI API) 推荐: RTX 3090 |
NVIDIA Driver Version | >= 525.105.17 | Nvidia Driver Downloads 或 小白攻略 | |
Docker version | >= 20.10.5 | Docker install 或 小白攻略 | |
docker compose version | >= 2.23.3 | docker compose install 或 小白攻略 | |
NVIDIA Container Toolkit | latest | NVIDIA Container Toolkit install 或 小白攻略 | |
git && git-lfs | latest | git-lfs install 或 小白攻略 | |
RAM(内存大小) | >=8GB(不使用本地大模型) >=16GB(使用本地大模型) |
启动服务失败但不报错时大概率是内存不足,请时刻关注内存使用情况 使用本地部署的大模型时:推荐内存>=16GB,使用API等方式调用大模型时:推荐内存>=8GB 内存>=32GB时可获得最佳体验 |
要检查已安装的 NVIDIA 驱动版本和 CUDA 版本,然后根据需要卸载旧版本,你可以遵循以下步骤:
-
检查 NVIDIA 驱动版本: 打开终端,然后输入以下命令来检查当前安装的 NVIDIA 驱动版本:
nvidia-smi
这个命令将输出一些关于 NVIDIA GPU 的信息,包括安装的驱动版本。查看输出中的 "Driver Version"
如果已经满足版本要求则可以跳过
如果检查结果显示 NVIDIA 驱动版本低于 525,你需要先卸载它们。
对于 NVIDIA 驱动,可以通过运行下列命令来卸载:
sudo apt-get purge nvidia-*
然后,重启你的计算机:
sudo reboot
-
更新系统:首先,更新你的系统包列表和系统本身,确保所有的依赖都是最新的。
sudo apt update sudo apt upgrade
-
安装必要的依赖:
sudo apt install build-essential
Ubuntu 默认使用 Nouveau 驱动程序来支持 NVIDIA 的显卡。在安装官方 NVIDIA 驱动前,你需要禁用 Nouveau 驱动。
-
打开
/etc/modprobe.d/blacklist-nouveau.conf
文件:sudo nano /etc/modprobe.d/blacklist-nouveau.conf
添加以下内容后保存:
blacklist nouveau options nouveau modeset=0
-
更新初始化 RAM 文件系统:
sudo update-initramfs -u
-
重启你的系统:
sudo reboot
-
添加 NVIDIA 的 PPA(可选,但推荐):
sudo add-apt-repository ppa:graphics-drivers/ppa sudo apt update
-
安装 NVIDIA 驱动:
ubuntu-drivers devices # 可用来查询可用的显卡驱动版本,选择大于等于525的版本 sudo apt install nvidia-driver-535
请将
nvidia-driver-535
替换为适合你的显卡的驱动版本。 -
重启: 安装完成后,重启你的系统:
sudo reboot
-
检查 Docker 版本: 打开终端并输入以下命令:
docker --version
如果已安装 Docker,此命令将输出当前安装的 Docker 版本。
-
检查 Docker Compose 版本: 对于 Docker Compose,运行:
docker compose version
或者,如果是使用旧版本的 Docker Compose(1.x 版本),可能需要运行:
docker-compose -v
如果已安装 Docker 或 Docker Compose 但版本不符合要求,则需要卸载它们。
-
卸载 Docker:
sudo apt-get remove docker docker-engine docker.io containerd runc
-
卸载 Docker Compose: 如果是通过包管理器安装的 Docker Compose,可以用
apt-get
移除:sudo apt-get remove docker-compose
如果是手动安装(如放置在
/usr/local/bin/docker-compose
),则需要手动删除:sudo rm /usr/local/bin/docker-compose
确保安装版本大于 20.10.5。
-
设置 Docker 仓库: 首先,更新
apt
包索引,并安装一些必需的包,这些包允许apt
通过 HTTPS 使用仓库:sudo apt-get update sudo apt-get install \ ca-certificates \ curl \ gnupg \ lsb-release
-
添加 Docker 的官方 GPG 密钥:
curl -fsSL https://download.docker.com/linux/ubuntu/gpg | sudo gpg --dearmor -o /usr/share/keyrings/docker-archive-keyring.gpg
-
设置稳定版仓库:
echo \ "deb [arch=$(dpkg --print-architecture) signed-by=/usr/share/keyrings/docker-archive-keyring.gpg] https://download.docker.com/linux/ubuntu \ $(lsb_release -cs) stable" | sudo tee /etc/apt/sources.list.d/docker.list > /dev/null
-
安装 Docker Engine:
sudo apt-get update sudo apt-get install docker-ce docker-ce-cli containerd.io
-
验证 Docker 安装:
sudo docker run hello-world
这应该会下载一个测试镜像并在容器中运行它,证明 Docker 已正确安装。
确保安装版本大于 2.23.3。
-
下载 Docker Compose: 你可以从 Docker 的 GitHub 仓库直接下载 Docker Compose 二进制文件。以安装版本 2.24.1 为例(请根据需要调整版本号):
sudo curl -L "https://github.com/docker/compose/releases/download/v2.24.1/docker-compose-$(uname -s)-$(uname -m)" -o /usr/local/bin/docker-compose # 如果发现速度过慢,可以尝试使用下面的国内源 sudo curl -SL https://mirror.ghproxy.com/https://github.com/docker/compose/releases/download/v2.24.1/docker-compose-`uname -s`-`uname -m` -o /usr/local/bin/docker-compose
-
使二进制文件可执行:
sudo chmod +x /usr/local/bin/docker-compose
-
测试安装:
docker-compose -v
确认输出的版本号满足您的要求。
完成以上步骤后,您将拥有满足版本要求的 Docker 和 Docker Compose。如果遇到任何问题,可能需要根据错误消息调整某些命令。
-
检查 NVIDIA Container Runtime:
docker info | grep nvidia
如果已经安装了 NVIDIA Container Toolkit,你应该能在输出中看到有关 NVIDIA 的信息。如果没有找到,表示可能尚未安装。
如果 NVIDIA Container Toolkit 尚未安装,你可以按照以下步骤进行安装:
-
配置 NVIDIA Docker 仓库:
curl -fsSL https://nvidia.github.io/libnvidia-container/gpgkey | sudo gpg --dearmor -o /usr/share/keyrings/nvidia-container-toolkit-keyring.gpg \ && curl -s -L https://nvidia.github.io/libnvidia-container/stable/deb/nvidia-container-toolkit.list | \ sed 's#deb https://#deb [signed-by=/usr/share/keyrings/nvidia-container-toolkit-keyring.gpg] https://#g' | \ sudo tee /etc/apt/sources.list.d/nvidia-container-toolkit.list
-
更新软件包列表:
sudo apt-get update
-
安装 NVIDIA Docker:
sudo apt-get install -y nvidia-container-toolkit
-
配置并重启 Docker 服务:
sudo nvidia-ctk runtime configure --runtime=docker sudo systemctl restart docker
要检查 Git 和 Git Large File Storage (Git LFS) 是否已安装,并在需要时安装它们,你可以按照以下步骤操作:
-
检查 Git 版本: 打开终端,然后输入以下命令来检查 Git 是否已安装,以及其版本:
git --version
如果这个命令返回了一个版本号,比如
git version 2.25.1
,这意味着 Git 已经安装在你的系统上。如果终端显示消息说找不到git
命令,那么你需要安装 Git。
如果 Git 未安装,你可以使用你的系统的包管理器来安装:
sudo apt update
sudo apt install git
-
检查 Git LFS 版本: 类似地,要检查 Git LFS 是否已安装,运行:
git lfs version
如果这个命令返回了一个版本号,那么 Git LFS 已经安装在你的系统上。如果终端显示消息说找不到
git lfs
命令,则需要安装 Git LFS。
如果 Git LFS 未安装,你可以按照以下步骤来安装:
-
下载并安装 Git LFS:
curl -s https://packagecloud.io/install/repositories/github/git-lfs/script.deb.sh | sudo bash sudo apt-get install git-lfs
-
设置 Git LFS: 安装完 Git LFS 后,你需要运行一次
git lfs install
来设置它:git lfs install
git clone https://github.com/netease-youdao/QAnything.git
cd QAnything
bash run.sh # 默认在0号GPU上启动,要求30系列,或40系列或A系列显卡且显存大于等于24GB
# 启动后根据实际情况选择输入remote(在云服务器上启动),或local(在本地机器上启动)
# 随后视情况输入ip地址
cd /path/to/QAnything/assets/custom_models
git clone https://www.modelscope.cn/models/netease-youdao/Qwen-7B-QAnything
cd /path/to/QAnything
bash ./run.sh -c local -i 0 -b hf -m Qwen-7B-QAnything -t qwen-7b-qanything
cd /path/to/QAnything/assets/custom_models
git clone https://www.modelscope.cn/netease-youdao/MiniChat-2-3B.git
cd /path/to/QAnything
bash ./run.sh -c local -i 0 -b hf -m MiniChat-2-3B -t minichat
# 使用openai api
bash ./run.sh -c cloud -i 0 -b default
# 根据提示输入api-key和api-base等参数
在浏览器中打开http://{your_host}:8777/qanything/
默认一般是http://0.0.0.0:8777/qanything/
即可使用UI界面
注意末尾的斜杠不可省略,否则会出现404错误
python scripts/new_knowledge_base.py # print kb_id
python scripts/upload_files.py <kb_id> scripts/weixiaobao.jpg # print file_id
python scripts/list_files.py <kb_id> # print files status
python scripts/stream_file.py <kb_id> # print llm res
- Python 3.10+ (建议使用aoaconda3来管理Python环境)
- System
- Linux: CPU模式:无,非CPU模式:glibc 2.28+ and Cuda 12.0+ (来源于onnxruntime-gpu cuda12.x版本的依赖,如果低于2.28自动切换onnxruntime)
- Windows: CPU模式:WSL with Ubuntu 18.04+ ,非CPU模式:WSL with Ubuntu 20.04+ 和 桌面版GEFORCE EXPERIENCE 535.104+
- MacOS(M1/M2/M3): 使用Openai-API兼容接口模式:无,本地大模型模式:Xcode 15.0+(llamacpp依赖Xcode)
安装软件包,请运行:
conda create -n qanything-python python=3.10
conda activate qanything-python
git clone -b qanything-python https://github.com/netease-youdao/QAnything.git
cd QAnything
pip install -r requirements.txt
# 请根据使用环境选择启动脚本:bash scripts/xxx(内部调用纯python启动代码,可手动修改python启动命令)
bash scripts/run_for_3B_in_Linux_or_WSL.sh
bash scripts/run_for_7B_in_Linux_or_WSL.sh
在scripts/run_for_openai_api_with_cpu_in_Linux_or_WSL.sh中补充api-key等参数
bash scripts/run_for_openai_api_with_cpu_in_Linux_or_WSL.sh
支持任意与Openai API接口兼容的其他API,例:通义千问DashScopeAPI
按照约定修改sh脚本中的-b(openai_api_base),-k(openai_api_key),-n(openai_api_model_name)等参数即可
同样使用Openai API兼容接口:
例如:当本地运行ollama run llama3,修改scripts/run_for_openai_api_with_cpu_in_Linux_or_WSL.sh内容为:
bash scripts/base_run.sh -s "LinuxOrWSL" -w 4 -m 19530 -q 8777 -o -b 'http://localhost:11434/v1' -k 'ollama' -n 'llama3' -l '4096'
在scripts/run_for_openai_api_with_gpu_in_Linux_or_WSL.sh中补充api-key等参数
bash scripts/run_for_openai_api_with_gpu_in_Linux_or_WSL.sh
在scripts/run_for_openai_api_in_M1_mac.sh中补充api-key等参数
bash scripts/run_for_openai_api_in_M1_mac.sh
Mac上建议使用Openai API, 本地模型效果不佳,运行速度较慢
bash scripts/run_for_4B_in_M1_mac.sh
在浏览器中打开http://{your_host}:8777/qanything/
默认一般是http://0.0.0.0:8777/qanything/
即可使用UI界面
注意末尾的斜杠不可省略,否则会出现404错误
python scripts/new_knowledge_base.py # print kb_id
python scripts/upload_files.py <kb_id> scripts/weixiaobao.jpg # print file_id
python scripts/list_files.py <kb_id> # print files status
python scripts/stream_file.py <kb_id> # print llm res
如果您想要断网安装QAnything,您可以使用以下命令启动服务。
# 先在联网机器上下载docker镜像
docker pull quay.io/coreos/etcd:v3.5.5
docker pull minio/minio:RELEASE.2023-03-20T20-16-18Z
docker pull milvusdb/milvus:v2.3.4
docker pull mysql:latest
docker pull freeren/qanything-win:v1.2.x # 从 [https://github.com/netease-youdao/QAnything/blob/master/docker-compose-windows.yaml#L103] 中获取最新镜像版本号。
# 打包镜像
docker save quay.io/coreos/etcd:v3.5.5 minio/minio:RELEASE.2023-03-20T20-16-18Z milvusdb/milvus:v2.3.4 mysql:latest freeren/qanything-win:v1.2.x -o qanything_offline.tar
# 下载QAnything代码
wget https://github.com/netease-youdao/QAnything/archive/refs/heads/master.zip
# 把镜像qanything_offline.tar和代码QAnything-master.zip拷贝到断网机器上
cp QAnything-master.zip qanything_offline.tar /path/to/your/offline/machine
# 在断网机器上加载镜像
docker load -i qanything_offline.tar
# 解压代码,运行
unzip QAnything-master.zip
cd QAnything-master
bash run.sh
# 注意上述命令仅适用于使用自研7B模型的情况,硬件要求30系,40系,或A系列显卡且显存>=24GB
# 如果不是,则根据此文档选择合适的模型或后端启动,此时需要增加手动下载模型的步骤:
# 下载非默认模型:(以下为使用MiniChat-2-3B示例,请按需更改)
cd QAnything-master/assets/custom_models
git lfs install
git clone https://www.modelscope.cn/netease-youdao/MiniChat-2-3B.git # 可从有网络的地方下载后转移到无网机器的QAnything-master/assets/custom_models文件夹下即可
cd ../../
bash ./run.sh -c local -i 0 -b hf -m MiniChat-2-3B -t minichat
如果您想要断网安装QAnything,您可以使用以下命令启动服务。
# 先在联网机器上下载docker镜像
docker pull quay.io/coreos/etcd:v3.5.5
docker pull minio/minio:RELEASE.2023-03-20T20-16-18Z
docker pull milvusdb/milvus:v2.3.4
docker pull mysql:latest
docker pull freeren/qanything:v1.2.x # 从 [https://github.com/netease-youdao/qanything/blob/master/docker-compose-linux.yaml#L104] 中获取最新镜像版本号。
# 打包镜像
docker save quay.io/coreos/etcd:v3.5.5 minio/minio:RELEASE.2023-03-20T20-16-18Z milvusdb/milvus:v2.3.4 mysql:latest freeren/qanything:v1.2.x -o qanything_offline.tar
# 下载QAnything代码
wget https://github.com/netease-youdao/QAnything/archive/refs/heads/master.zip
# 把镜像qanything_offline.tar和代码QAnything-master.zip拷贝到断网机器上
cp QAnything-master.zip qanything_offline.tar /path/to/your/offline/machine
# 在断网机器上加载镜像
docker load -i qanything_offline.tar
# 解压代码,运行
unzip QAnything-master.zip
cd QAnything-master
bash run.sh
# 注意上述命令仅适用于使用自研7B模型的情况,硬件要求30系,40系,或A系列显卡且显存>=24GB
# 如果不是,则根据此文档选择合适的模型或后端启动,此时需要增加手动下载模型的步骤:
# 下载非默认模型:(以下为使用MiniChat-2-3B示例,请按需更改)
cd QAnything-master/assets/custom_models
git lfs install
git clone https://www.modelscope.cn/netease-youdao/MiniChat-2-3B.git # 可从有网络的地方下载后转移到无网机器的QAnything-master/assets/custom_models文件夹下即可
cd ../../
bash ./run.sh -c local -i 0 -b hf -m MiniChat-2-3B -t minichat
支持多卡推理大模型,以下示例为4张卡启动,默认embedding,部署在第一张卡上,rerank,ocr模型部署在第二张卡上,四张卡剩余显存均会用于LLM推理
bash ./run.sh -c local -i 0,1,2,3 -b vllm -m Qwen-7B-QAnything -t qwen-7b-qanything # 指定0,1,2,3号GPU启动,请确认有多张GPU可用,注意设备数量必须是1,2,4,8,16,否则显存无法正常分配
注意:使用默认的自研Qwen-7B-QAnything模型目前要求显卡算力在8.0以上,因此仅支持30系,40系,或A系列显卡,其他显卡型号请选择其他开源模型:可参考模型列表
注意下载模型需要先安装git-lfs
cd /path/to/QAnything/assets/custom_models
git lfs install
git clone https://www.modelscope.cn/netease-youdao/MiniChat-2-3B.git
cd /path/to/QAnything
bash ./run.sh -c local -i 0,1,2,3 -b vllm -m MiniChat-2-3B -t minichat
不支持多卡推理大模型,此时指定GPU设备的数量不为1时,会自动切换后端为vllm
说明:多卡部署是指大模型运行平均分配显存到多张显卡上,但是由于embedding,rerank和ocr模型也需要占用显存(共需4G+显存,启动时占用2G显存,运行后会逐渐上涨至4G左右),目前这三个模型默认会分配到前两个设备上,所以第一张,第二张显卡的显存占用会比其他卡多2G以上,默认启动参数-r(gpu_memory_utilization)=0.81,如果手动设置为0.9以上可能会存在前两张卡显存不足无法启动或启动后运行时显存不足报错的情况
默认支持多并发,workers默认设置为10,由于ocr,rerank,embedding和llm都是独立的服务,因此并发数并不会增加显存占用,此时可根据实际情况手动修改并发数,
手动修改此行的“workers”参数并重启服务即可:
默认不支持多并发,由于python版rerank,embedding,llm均与主服务一起启动,(ocr默认使用cpu,不占用显存),因此并发数会增加显存占用,而本地部署llm占用的显存(mac上是内存),因此当使用本地LLM模型时无法使用多并发,当使用API调用可以手动修改并发数,显存(mac上是内存)占用与workers数量成正比,
手动修改此行“single_process=True”为“workers=[想要的并发数]”,注意在某些环境下python多进程启动时上下文会报错:RuntimeError: context has already been set。此时无法使用多并发
要求开启外网VPN,如无法获取外网VPN请在前端页面关闭联网检索功能,防止报错
目前仅支持以下格式的文件溯源:
pdf,docx,xlsx,txt,jpg,png,jpeg,联网检索网络链接
OpenCloudOS是腾讯自研的国产操作系统:官网
OpenCloud 需要在 Docker 容器中运行,请先安装 Docker: Docker 版本 >= 20.10.5 且 docker-compose 版本 >= 2.23.3
docker-compose up -d
docker attach qanything-container
# 启动容器后选择以下4个命令之一来运行:
bash scripts/run_for_3B_in_Linux_or_WSL.sh
bash scripts/run_for_7B_in_Linux_or_WSL.sh
bash scripts/run_for_openai_api_with_cpu_in_Linux_or_WSL.sh
bash scripts/run_for_openai_api_with_gpu_in_Linux_or_WSL.sh
上传后直接问答即可,知识库会自动包含FAQ和非FAQ内容
支持按多种类型字段筛选,支持自定义返回字段,支持保存成EXCEL文件
bash ./run.sh -c cloud -i 0
# 手动输入api_key,base_url,model_name,context_length,除了api_key外均有默认值,且用户输入会自动保存,下次启动不用再次输入
通义千问DashScope支持:通义千问DashScopeAPI
# 示例
openai_api_key = "sk-xxx"
openai_api_base = "https://dashscope.aliyuncs.com/compatible-mode/v1"
openai_model_name = "qwen1.5-72b-chat"
ollama支持:本地启动ollama服务
# 例如,当本地运行ollama run qwen:32b
openai_api_key = "ollama"
openai_api_base = "http://localhost:11434/v1"
openai_api_model_name = "qwen:32b"
支持任意与OpenaAI接口兼容的服务
通义千问DashScope支持:通义千问DashScopeAPI 自定义scripts/run_for_openai_api_xxx.sh内容为:
# Linux或WSL上,注意cpu模式需要加-c参数
bash scripts/base_run.sh -s "LinuxOrWSL" -w 4 -m 19530 -q 8777 -o -b 'https://dashscope.aliyuncs.com/compatible-mode/v1' -k 'sk-xxx' -n 'qwen1.5-72b-chat' -l '4096'
# Mac上
bash scripts/base_run.sh -s "M1mac" -w 2 -m 19530 -q 8777 -o -b 'https://dashscope.aliyuncs.com/compatible-mode/v1' -k 'sk-xxx' -n 'qwen1.5-72b-chat' -l '4096'
ollama支持:本地启动ollama服务 自定义scripts/run_for_openai_api_xxx.sh内容为:
# Linux或WSL上,注意cpu模式需要加-c参数
bash scripts/base_run.sh -s "LinuxOrWSL" -w 4 -m 19530 -q 8777 -o -b 'http://localhost:11434/v1' -k 'ollama' -n 'qwen:32b' -l '4096'
# Mac上
bash scripts/base_run.sh -s "M1mac" -w 2 -m 19530 -q 8777 -o -b 'http://localhost:11434/v1' -k 'ollama' -n 'qwen:32b' -l '4096'
默认使用快速PDF解析器,解析速度快,但是解析效果一般,如果需要更好的解析效果,可以使用以下方式手动开启强力解析器: 典型耗时对比: 环境:Mac M1Pro 16GB, 单页PDF解析耗时:快速解析器耗时约1/30s,强力解析器耗时约1s 原理:快速解析器主要依赖PyMuPDF,强力解析器则使用了表格解析模型和版面分析模型,并做了后处理优化
在项目的根目录下的config.py配置文件中将USE_FAST_PDF_PARSER的值修改为False
项目的根目录下的config.py配置文件中的配置参数都可以更改,用户可以根据自己的需求实现自定义更改
# 根据实际情况调整以下参数,对硬件要求更高,但是速度更快
# 设置rerank的batch大小,16GB内存建议设置为8,32GB内存建议设置为16
"LOCAL_RERANK_BATCH": 8,
# 设置rerank的多线程worker数量,默认设置为4,根据机器性能调整
"LOCAL_RERANK_WORKERS": 4,
# 设置embed的batch大小,16GB内存建议设置为8,32GB内存建议设置为16
"LOCAL_EMBED_BATCH": 8,
# 设置embed的多线程worker数量,默认设置为4,根据机器性能调整
"LOCAL_EMBED_WORKERS": 4
# 回答的最大token数,一般来说对于国内模型一个中文不到1个token,国外模型一个中文1.5-2个token
"max_token": 512,
# 附带的上下文数目
"history_len": 2,
# 总共的token数,如果遇到电脑显存不够的情况可以将此数字改小,如果低于3000仍然无法使用,就更换模型
"token_window": 4096,
# 如果报错显示top_p值必须在0到1,可以在这里修改
"top_p": 1.0
pip install -e .
在同一python环境就可以使用以下实例代码使用pdf解析器
from qanything_kernel.utils.loader import PdfLoader
# 创建 PdfLoader 类的实例
# 可以自由更改路径,filename为需要解析的pdf文件路径,save_dir_为解析后保存文件的路径
pdf_loader = PdfLoader(filename='xxx.pdf', save_dir_='/to/path/output')
# 调用 load_to_markdown 方法进行转换
markdown_directory = pdf_loader.load_to_markdown()
print(f"Markdown文件在: {markdown_directory}")