Browse Source

Merge pull request #3550 from opendatalab/dev

Dev
Xiaomeng Zhao 1 month ago
parent
commit
4275876331
3 changed files with 13 additions and 2 deletions
  1. 6 0
      README.md
  2. 5 0
      README_zh-CN.md
  3. 2 2
      docs/zh/quick_start/docker_deployment.md

+ 6 - 0
README.md

@@ -44,6 +44,12 @@
 
 # Changelog
 
+- 2025/09/20 2.5.3 Released
+ - Dependency version range adjustment to enable Turing and earlier architecture GPUs to use vLLM acceleration for MinerU2.5 model inference.
+ - Pipeline backend compatibility fixes for torch 2.8.0.
+ - Reduced default concurrency for vLLM async backend to lower server pressure and avoid connection closure issues caused by high load.
+ - More compatibility-related details can be found in the [announcement](https://github.com/opendatalab/MinerU/discussions/3548)
+
 - 2025/09/19 2.5.2 Released
 
   We are officially releasing MinerU2.5, currently the most powerful multimodal large model for document parsing.

+ 5 - 0
README_zh-CN.md

@@ -43,6 +43,11 @@
 </div>
 
 # 更新记录
+- 2025/09/20 2.5.3 发布
+ - 依赖版本范围调整,使得Turing及更早架构显卡可以使用vLLM加速推理MinerU2.5模型。
+ - pipeline后端对torch 2.8.0的一些兼容性修复。
+ - 降低vLLM异步后端默认的并发数,降低服务端压力以避免高压导致的链接关闭问题。
+ - 更多兼容性相关内容详见[公告](https://github.com/opendatalab/MinerU/discussions/3547)
 
 - 2025/09/19 2.5.2 发布
   我们正式发布 MinerU2.5,当前最强文档解析多模态大模型。仅凭 1.2B 参数,MinerU2.5 在 OmniDocBench 文档解析评测中,精度已全面超越 Gemini2.5-Pro、GPT-4o、Qwen2.5-VL-72B等顶级多模态大模型,并显著领先于主流文档解析专用模型(如 dots.ocr, MonkeyOCR, PP-StructureV3 等)。

+ 2 - 2
docs/zh/quick_start/docker_deployment.md

@@ -10,8 +10,8 @@ docker build -t mineru-vllm:latest -f Dockerfile .
 ```
 
 > [!TIP]
-> [Dockerfile](https://github.com/opendatalab/MinerU/blob/master/docker/china/Dockerfile)默认使用`vllm/vllm-openai:v0.10.1.1`作为基础镜像,该版本的vLLM v1 engine对显卡型号支持有限
-> ,如您无法在Turing及更早架构的显卡上使用vLLM加速推理,可通过更改基础镜像为`vllm/vllm-openai:v0.10.2`来解决该问题。
+> [Dockerfile](https://github.com/opendatalab/MinerU/blob/master/docker/china/Dockerfile)默认使用`vllm/vllm-openai:v0.10.1.1`作为基础镜像,
+> 该版本的vLLM v1 engine对显卡型号支持有限,如您无法在Turing及更早架构的显卡上使用vLLM加速推理,可通过更改基础镜像为`vllm/vllm-openai:v0.10.2`来解决该问题。
 
 ## Docker说明