소스 검색

fix: update default batch size for inference to improve performance

myhloli 3 달 전
부모
커밋
e00c090616
1개의 변경된 파일1개의 추가작업 그리고 1개의 파일을 삭제
  1. 1 1
      mineru/backend/pipeline/pipeline_analyze.py

+ 1 - 1
mineru/backend/pipeline/pipeline_analyze.py

@@ -78,7 +78,7 @@ def doc_analyze(
     适当调大MIN_BATCH_INFERENCE_SIZE可以提高性能,更大的 MIN_BATCH_INFERENCE_SIZE会消耗更多内存,
     可通过环境变量MINERU_MIN_BATCH_INFERENCE_SIZE设置,默认值为384。
     """
-    min_batch_inference_size = int(os.environ.get('MINERU_MIN_BATCH_INFERENCE_SIZE', 128))
+    min_batch_inference_size = int(os.environ.get('MINERU_MIN_BATCH_INFERENCE_SIZE', 384))
 
     # 收集所有页面信息
     all_pages_info = []  # 存储(dataset_index, page_index, img, ocr, lang, width, height)