Просмотр исходного кода

Merge pull request #3550 from opendatalab/dev

Dev
Xiaomeng Zhao 1 месяц назад
Родитель
Сommit
4275876331
3 измененных файлов с 13 добавлено и 2 удалено
  1. 6 0
      README.md
  2. 5 0
      README_zh-CN.md
  3. 2 2
      docs/zh/quick_start/docker_deployment.md

+ 6 - 0
README.md

@@ -44,6 +44,12 @@
 
 
 # Changelog
 # Changelog
 
 
+- 2025/09/20 2.5.3 Released
+ - Dependency version range adjustment to enable Turing and earlier architecture GPUs to use vLLM acceleration for MinerU2.5 model inference.
+ - Pipeline backend compatibility fixes for torch 2.8.0.
+ - Reduced default concurrency for vLLM async backend to lower server pressure and avoid connection closure issues caused by high load.
+ - More compatibility-related details can be found in the [announcement](https://github.com/opendatalab/MinerU/discussions/3548)
+
 - 2025/09/19 2.5.2 Released
 - 2025/09/19 2.5.2 Released
 
 
   We are officially releasing MinerU2.5, currently the most powerful multimodal large model for document parsing.
   We are officially releasing MinerU2.5, currently the most powerful multimodal large model for document parsing.

+ 5 - 0
README_zh-CN.md

@@ -43,6 +43,11 @@
 </div>
 </div>
 
 
 # 更新记录
 # 更新记录
+- 2025/09/20 2.5.3 发布
+ - 依赖版本范围调整,使得Turing及更早架构显卡可以使用vLLM加速推理MinerU2.5模型。
+ - pipeline后端对torch 2.8.0的一些兼容性修复。
+ - 降低vLLM异步后端默认的并发数,降低服务端压力以避免高压导致的链接关闭问题。
+ - 更多兼容性相关内容详见[公告](https://github.com/opendatalab/MinerU/discussions/3547)
 
 
 - 2025/09/19 2.5.2 发布
 - 2025/09/19 2.5.2 发布
   我们正式发布 MinerU2.5,当前最强文档解析多模态大模型。仅凭 1.2B 参数,MinerU2.5 在 OmniDocBench 文档解析评测中,精度已全面超越 Gemini2.5-Pro、GPT-4o、Qwen2.5-VL-72B等顶级多模态大模型,并显著领先于主流文档解析专用模型(如 dots.ocr, MonkeyOCR, PP-StructureV3 等)。
   我们正式发布 MinerU2.5,当前最强文档解析多模态大模型。仅凭 1.2B 参数,MinerU2.5 在 OmniDocBench 文档解析评测中,精度已全面超越 Gemini2.5-Pro、GPT-4o、Qwen2.5-VL-72B等顶级多模态大模型,并显著领先于主流文档解析专用模型(如 dots.ocr, MonkeyOCR, PP-StructureV3 等)。

+ 2 - 2
docs/zh/quick_start/docker_deployment.md

@@ -10,8 +10,8 @@ docker build -t mineru-vllm:latest -f Dockerfile .
 ```
 ```
 
 
 > [!TIP]
 > [!TIP]
-> [Dockerfile](https://github.com/opendatalab/MinerU/blob/master/docker/china/Dockerfile)默认使用`vllm/vllm-openai:v0.10.1.1`作为基础镜像,该版本的vLLM v1 engine对显卡型号支持有限
-> ,如您无法在Turing及更早架构的显卡上使用vLLM加速推理,可通过更改基础镜像为`vllm/vllm-openai:v0.10.2`来解决该问题。
+> [Dockerfile](https://github.com/opendatalab/MinerU/blob/master/docker/china/Dockerfile)默认使用`vllm/vllm-openai:v0.10.1.1`作为基础镜像,
+> 该版本的vLLM v1 engine对显卡型号支持有限,如您无法在Turing及更早架构的显卡上使用vLLM加速推理,可通过更改基础镜像为`vllm/vllm-openai:v0.10.2`来解决该问题。
 
 
 ## Docker说明
 ## Docker说明