Переглянути джерело

perf(inference): adjust batch ratio for high GPU memory

- Increase batch ratio to 8 for GPU memory >=16GB
- Improve inference performance on systems with higher GPU memory
myhloli 8 місяців тому
батько
коміт
0b05dff74f
1 змінених файлів з 3 додано та 1 видалено
  1. 3 1
      magic_pdf/model/doc_analyze_by_custom_model.py

+ 3 - 1
magic_pdf/model/doc_analyze_by_custom_model.py

@@ -170,7 +170,9 @@ def doc_analyze(
         gpu_memory = int(os.getenv("VIRTUAL_VRAM_SIZE", round(get_vram(device))))
         if gpu_memory is not None and gpu_memory >= 8:
 
-            if gpu_memory >= 10:
+            if gpu_memory >= 16:
+                batch_ratio = 8
+            elif gpu_memory >= 10:
                 batch_ratio = 4
             else:
                 batch_ratio = 2