Parcourir la source

fix: update default batch size for inference to improve performance

myhloli il y a 3 mois
Parent
commit
e00c090616
1 fichiers modifiés avec 1 ajouts et 1 suppressions
  1. 1 1
      mineru/backend/pipeline/pipeline_analyze.py

+ 1 - 1
mineru/backend/pipeline/pipeline_analyze.py

@@ -78,7 +78,7 @@ def doc_analyze(
     适当调大MIN_BATCH_INFERENCE_SIZE可以提高性能,更大的 MIN_BATCH_INFERENCE_SIZE会消耗更多内存,
     可通过环境变量MINERU_MIN_BATCH_INFERENCE_SIZE设置,默认值为384。
     """
-    min_batch_inference_size = int(os.environ.get('MINERU_MIN_BATCH_INFERENCE_SIZE', 128))
+    min_batch_inference_size = int(os.environ.get('MINERU_MIN_BATCH_INFERENCE_SIZE', 384))
 
     # 收集所有页面信息
     all_pages_info = []  # 存储(dataset_index, page_index, img, ocr, lang, width, height)