Просмотр исходного кода

fix: 修正环境配置中的命令和参数,确保兼容性和正确性

zhch158_admin 2 месяцев назад
Родитель
Сommit
c56e40bd62
1 измененных файлов с 13 добавлено и 8 удалено
  1. 13 8
      zhch/study-notes.md

+ 13 - 8
zhch/study-notes.md

@@ -1,5 +1,5 @@
 # 环境选择
-```
+```bash
 git clone https://gitee.com/zhch158_admin/dots.ocr.git
 
 git config --local user.name "zhch158_admin"
@@ -7,21 +7,26 @@ git config --local user.email "zhch158@sina.com"
 # 自定义缓存时间(如7200秒)
 git config --global credential.helper 'cache --timeout=7200'
 
-conda create -n py312 python=3.12
+conda create -n dots.ocr python=3.12
 # vllm目前最高支持到3.12
 
 ```
 
 # Linux安装
 flash-attn 确实没有 macOS 的预编译包,因为 flash-attn 是专门为 NVIDIA GPU(CUDA)设计的,而 Mac 使用的是 Apple Silicon 或 Intel CPU,不支持 CUDA
-```
+```bash
 cd dots.ocr
 
 conda activate dots.ocr
-uv pip install torch==2.7.0 torchvision==0.22.0 torchaudio==2.7.0 
+uv pip install -U torch==2.7.0 torchvision==0.22.0 torchaudio==2.7.0 --index-url https://download.pytorch.org/whl/cu126
+
+# dots.ocr目前使用transformers-4.51.3
+# vllm必须降级,只能使用0.9.1
+# 但vllm 0.10.1.1 requires transformers>=4.55.0
 uv pip install -e .
+
 # 安装最新版vllm
-uv pip install vllm --torch-backend=auto
+uv pip install -U vllm==0.9.1
 
 # 解决vllm版本兼容问题,检查当前版本
 pip list | grep -E "(vllm|transformers|torch|flash_attn|flashinfer)"
@@ -45,7 +50,7 @@ python3 tools/download_model.py --type modelscope
 ```
 
 # 修复CUDA链接
-```
+```bash
 # 移除错误的符号链接
 sudo rm -f /usr/lib/x86_64-linux-gnu/libcuda.so*
 sudo rm -f /usr/local/cuda*/lib64/libcuda.so*
@@ -64,7 +69,7 @@ python -c "import torch; print(torch.cuda.is_available()); print(torch.cuda.devi
 
 
 # MAC 安装
-```
+```zsh
 cd dots.ocr
 conda activate py312
 
@@ -134,7 +139,7 @@ if __name__ == "__main__":
     sys.exit(main())
 ```
 
-```
+```bash
 # 监控内存使用情况
 watch -n 1 nvidia-smi