|
|
@@ -216,3 +216,13 @@ flash-attn==2.8.0.post2 # CUDA 专用,不支持 macOS
|
|
|
1. **移除 Flash Attention 依赖**: 在 macOS 上不使用 flash-attn
|
|
|
2. 运行zhch/convert_model_macos_float32.py,将模型转换为 float32 格式,weights/DotsOCR_float32
|
|
|
3. 调用程序:zhch/demo_hf_macos_float32.py
|
|
|
+
|
|
|
+# linux上批量识别OmniDocBench数据集
|
|
|
+```bash
|
|
|
+cd ~/zhch/dots.ocr/zhch
|
|
|
+conda activate dots.ocr
|
|
|
+
|
|
|
+./vllm_daemon.sh start
|
|
|
+
|
|
|
+python OmniDocBench_DotsOCR_multthreads.py
|
|
|
+```
|