✨ 免费白嫖最强视觉AI!Qwen2.5-VL 本地部署教程:开源大模型本地玩转,省钱又好用!

2025年 3月 1日 159点热度

你是否也想拥有一个完全属于自己的、无需联网也能使用的强大视觉 AI 模型? 云端服务费用高昂?数据隐私担忧?

现在,通过本视频教程,你就能轻松实现 Qwen2.5-VL 的本地部署! 我们将一步步指导你搭建环境,运行模型,让开源视觉大模型触手可及。

电脑上先安装好 Git 和 Python 环境,没有的可以自行先去安装。

1. 创建并激活虚拟环境
python -m venv qwen_vl_env
qwen_vl_env\Scripts\activate

2. 克隆仓库并进入目录
git clone https://github.com/QwenLM/Qwen2.5-VL
cd Qwen2.5-VL

3. 安装 Web Demo 依赖
pip install -r requirements_web_demo.txt

4. 安装 CUDA 11.8 支持的 PyTorch (根据您的 CUDA 版本或需求调整)
pip install torch torchvision torchaudio --index-url https://download.pytorch.org/whl/cu118

5. 更新 Gradio
pip install -U gradio gradio_client

6. 安装transformers并再次更新
pip install transformers==4.35.0
pip install -U transformers

7. 选择模型并运行 Web Demo (例如 7B 模型)
python web_demo_mm.py --checkpoint-path "Qwen/Qwen2.5-VL-7B-Instruct"

下方是模型的下载安装,总共有3个选项:

3B 模型,建议在 GPU显存8GB

python web_demo_mm.py --checkpoint-path "Qwen/Qwen2.5-VL-3B-Instruct"

显存高于10G的可以选择7B模型

python web_demo_mm.py --checkpoint-path "Qwen/Qwen2.5-VL-7B-Instruct"

如果有专业级别的GPU,那么可以直接上72B的最大模型

python web_demo_mm.py --checkpoint-path "Qwen/Qwen2.5-VL-72B-Instruct"
8.最后在浏览器上打开本地链接 http://127.0.0.1:7860 就可以
一键运行bat文件:点击下载

CYL

这个人很懒,什么都没留下

文章评论