在服务器上搭配大模型的运行环境详细版(docker+ollama+langchain等工具)

avatar
作者
筋斗云
阅读量:4

用到的工具

1.anaconda3环境安装

anaconda3导出环境

#导出环境 conda env export --name your_env_name > custom_environment.yaml #导入环境 conda env create -f environment.yaml 

2.前置的docker软件安装、docker镜像如何进行转移

sudo apt-get update #时期能访问阿里云 sudo apt install apt-transport-https ca-certificates curl gnupg-agent software-properties-common # 确认docker未被篡改 curl -fsSL https://download.docker.com/linux/ubuntu/gpg | sudo apt-key add - sudo apt-get update sudo apt install docker-ce 在测试或开发环境中 Docker 官方为了简化安装流程,提供了一套便捷的安装脚本,Ubuntu 系统上可以使用这套脚本安装,另外可以通过 --mirror 选项使用国内源进行安装: curl -fsSL get.docker.com -o get-docker.sh sudo sh get-docker.sh --mirror Aliyun  

添加用户

#将当前用户加入用户组 sudo gpasswd -a $USER docker 修改并保存完成后,重新加载守护并重启socket即可  sudo systemctl daemon-reload sudo systemctl restart docker.socket 
安装ollama命令 此为cpu版本 docker run -d -v /opt/ai/ollama:/root/.ollama -p 11434:11434 --name ollama ollama/ollama gpu版本 docker run --gpus all -d -v /opt/ai/ollama:/root/.ollama -p 11434:11434 --name ollama ollama/ollama  #docker装pgvector docker run --name pgvector --restart=always -e POSTGRES_USER=pgvector -e POSTGRES_PASSWORD=pgvector -v /srv/tlw/pgvectordata:/var/lib/postgresql/data -p 54333:5432 -d pgvector/pgvector:pg16 #docker装openwebui docker run -d -p 3000:8080 --add-host=host.docker.internal:host-gateway -v open-webui:/app/backend/data --name open-webui --restart always ghcr.io/open-webui/open-webui:main  #docker装openwebui与ollama捆绑的 gpu版本 docker run -d -p 3000:8080 --gpus=all -v ollama:/root/.ollama -v open-webui:/app/backend/data --name open-webui --restart always ghcr.io/open-webui/open-webui:ollama    #以export import方式 docker export 容器名字 > container.tar cat container.tar | docker import - <新容器名称>  #save load方式 docker save -o my-open-webui-image.tar my-open-webui-image docker load -i my-open-webui-image.tar 这会将my-open-webui-image.tar文件中的镜像加载到Docker中,之后你就可以像使用任何其他本地镜像一样使用它了 docker run -it -d \   -p 3000:8080 \   --add-host=host.docker.internal:host-gateway \   -v /path/on/target/machine/open-webui:/app/backend/data \   --name new_open_webui \   my-open-webui-image     请确保替换/path/on/target/machine/open-webui为目标电脑上的实际路径。  通过以上步骤,你就能成功地将一个Docker容器转换为镜像,并将其转移到另一台电脑上使用了 

3.gpu环境配置

删除已安装的cuda环境

sudo apt-get --purge remove nvidia*

sudo apt autoremove

To remove CUDA Toolkit:

$ sudo apt-get --purge remove "*cublas*" "cuda*" 

To remove NVIDIA Drivers:

$ sudo apt-get --purge remove "*nvidia*" 
curl -fsSL https://nvidia.github.io/libnvidia-container/gpgkey | sudo gpg --dearmor -o /usr/share/keyrings/nvidia-container-toolkit-keyring.gpg \   && curl -s -L https://nvidia.github.io/libnvidia-container/stable/deb/nvidia-container-toolkit.list | \     sed 's#deb https://#deb [signed-by=/usr/share/keyrings/nvidia-container-toolkit-keyring.gpg] https://#g' | \     sudo tee /etc/apt/sources.list.d/nvidia-container-toolkit.list 这些命令有的需要关机之后才生效!!! sudo apt-get update  # 更新源 sudo apt-get install -y nvidia-container-toolkit 这个工具也是需要安装的 此为gpu安装工具包 sudo apt-get install dkms 安装nvidia-smi ubuntu-drivers devices # 查看推荐安装的driver sudo apt install nvidia-driver-545-open # 进行安装之后需要重启计算机 输入nvidia-smi命令查看可安装版本 安装对应的版本 sudo dkms install -m nvidia -v 450.57 

4.pycharm配置

5.langchain环境搭配

langchain使用的技术有Agent、memory、分词器、pgvector

直接pip安装,后面缺什么按需要装什么就行了

在后台一直运行该项目

nohup streamlit run app.py > streamrun.log 2>&1 & 

6.网络方面

1.网络方面

查看防火墙

ufw status

添加端口开启

sudo ufw allow 22

iptables -nvL

添加用户

sudo useradd -r -m -s /bin/bash munan sudo passwd 。。。 #设置密码 切换用户 su 。。。 

2.unsloth(对大模型进行微调的框架)

官方地址:unslothai/unsloth: Finetune Llama 3, Mistral, Phi & Gemma LLMs 2-5x faster with 80% less memory (github.com)

unsloth如何使用

unsloth之后将模型保存,保存完之后需要进行量化操作

make clean && make all -j  python convert-hf-to-gguf.py /home/munan/fine_tune/lora_quantity_models/lama3-instruct/model #后面跟的是模型保存得路径,先将其转换为gguf格式 ./quantize /home/munan/fine_tune/lora_quantity_models/lama3-instruct/model/ggml-model-f16.gguf /home/munan/fine_tune/lora_quantity_models/lama3-instruct/quantity/ggml-model-q4_0.gguf q4_0 #该命令是对模型进行量化,后面得q4_0为进行4位量化 

量化完成之后将其导入到ollama

在ollama里面还需要Modelfile文件,防止模型进行胡言乱语。

# 导入ollama docker exec -it ollama-gpu /bin/bash -c "ollama create travel_llama3 -f /home/{your_path}/quantity/Modelfile.txt" #创建模型 docker exec -it ollama-gpu /bin/bash -c 'ollama rm travel_llama3' #将modelfile.txt复制一份到其他地方 #以交互式方式进入容器 docker exec -it ollama-gpu bash # 将modelfile.txt移动到容器内 docker cp /home/munan/fine_tune/lora_quantity_models/{your_path}/quantity/ ollama-gpu:/home/{your_path}/quantity/ 

3.phidata(大模型开发所要使用的框架)其中前端页面使用了streamlit框架

其中包含了可以加入Memory+Knowledge+Tools

官方地址:phidatahq/phidata: Build AI Assistants with memory, knowledge and tools. (github.com)

4.openwebui(大模型开发所要使用的框架)

实际体验中感觉openwebui比phidata好用。

官方地址:open-webui/open-webui: User-friendly WebUI for LLMs (Formerly Ollama WebUI) (github.com)

安装nodejs

运行将为 Node.js 20 包配置 APT 存储库的脚本。 sudo apt update && sudo apt install -y nodejs 

5.opencompass(对大模型进行评测的框架)

官方地址:open-compass/opencompass: OpenCompass is an LLM evaluation platform, supporting a wide range of models (Llama3, Mistral, InternLM2,GPT-4,LLaMa2, Qwen,GLM, Claude, etc) over 100+ datasets. (github.com)

看官方文档

广告一刻

为您即时展示最新活动产品广告消息,让您随时掌握产品活动新动态!