# 命令行参数进阶 ## vllm 加速参数优化 ### 性能优化参数 > [!TIP] > 如果您已经可以正常使用vllm对vlm模型进行加速推理,但仍然希望进一步提升推理速度,可以尝试以下参数: > > - 如果您有超过多张显卡,可以使用vllm的多卡并行模式来增加吞吐量:`--data-parallel-size 2` ### 参数传递说明 > [!TIP] > - 所有vllm官方支持的参数都可用通过命令行参数传递给 MinerU,包括以下命令:`mineru`、`mineru-vllm-server`、`mineru-gradio`、`mineru-api` > - 如果您想了解更多有关`vllm`的参数使用方法,请参考 [vllm官方文档](https://docs.vllm.ai/en/latest/cli/serve.html) ## GPU 设备选择与配置 ### CUDA_VISIBLE_DEVICES 基本用法 > [!TIP] > - 任何情况下,您都可以通过在命令行的开头添加`CUDA_VISIBLE_DEVICES` 环境变量来指定可见的 GPU 设备: > ```bash > CUDA_VISIBLE_DEVICES=1 mineru -p -o > ``` > - 这种指定方式对所有的命令行调用都有效,包括 `mineru`、`mineru-vllm-server`、`mineru-gradio` 和 `mineru-api`,且对`pipeline`、`vlm`后端均适用。 ### 常见设备配置示例 > [!TIP] > 以下是一些常见的 `CUDA_VISIBLE_DEVICES` 设置示例: > ```bash > CUDA_VISIBLE_DEVICES=1 # Only device 1 will be seen > CUDA_VISIBLE_DEVICES=0,1 # Devices 0 and 1 will be visible > CUDA_VISIBLE_DEVICES="0,1" # Same as above, quotation marks are optional > CUDA_VISIBLE_DEVICES=0,2,3 # Devices 0, 2, 3 will be visible; device 1 is masked > CUDA_VISIBLE_DEVICES="" # No GPU will be visible > ``` ## 实际应用场景 > [!TIP] > 以下是一些可能的使用场景: > > - 如果您有多张显卡,需要指定卡0和卡1,并使用多卡并行来启动`vllm-server`,可以使用以下命令: > ```bash > CUDA_VISIBLE_DEVICES=0,1 mineru-vllm-server --port 30000 --data-parallel-size 2 > ``` > > - 如果您有多张显卡,需要在卡0和卡1上启动两个`fastapi`服务,并分别监听不同的端口,可以使用以下命令: > ```bash > # 在终端1中 > CUDA_VISIBLE_DEVICES=0 mineru-api --host 127.0.0.1 --port 8000 > # 在终端2中 > CUDA_VISIBLE_DEVICES=1 mineru-api --host 127.0.0.1 --port 8001 > ```