如何使用Python 3.7 pdf2image库解决MemoryError?

时间:2019-06-06 06:08:22

标签: python python-3.x out-of-memory data-conversion

我正在使用Python PDF2Image库运行一个简单的PDF到图像的转换。我当然可以理解,此库正在越过最大内存阈值,从而导致出现此错误。但是,the PDF是6.6 MB(大约),那么为什么要占用GB的内存来引发内存错误?

Python 3.7.0 (v3.7.0:1bf9cc5093, Jun 27 2018, 04:06:47) [MSC v.1914 32 bit (Intel)] on win32
Type "help", "copyright", "credits" or "license" for more information.
>>> from pdf2image import convert_from_path
>>> pages = convert_from_path(r'C:\Users\aakashba598\Documents\pwc-annual-report-2017-2018.pdf', 200)
Exception in thread Thread-3:
Traceback (most recent call last):
  File "C:\Users\aakashba598\AppData\Local\Programs\Python\Python37-32\lib\threading.py", line 917, in _bootstrap_inner
    self.run()
  File "C:\Users\aakashba598\AppData\Local\Programs\Python\Python37-32\lib\threading.py", line 865, in run
    self._target(*self._args, **self._kwargs)
  File "C:\Users\aakashba598\AppData\Local\Programs\Python\Python37-32\lib\subprocess.py", line 1215, in _readerthread
    buffer.append(fh.read())
MemoryError

此外,对此有什么可能的解决方案?

更新:当我从 convert_from_path 函数减小dpi参数时,它就像一个超级按钮。但是产生的图片质量低(出于明显的原因)。有没有办法来解决这个问题?就像逐批创建图像并每次清除内存一样。如果有办法,该怎么办?

5 个答案:

答案 0 :(得分:3)

每次将PDF转换为10页的块(1-10,11-20等...)

maxPages = pdf2image._page_count(pdf_file)
for page in range(1,maxPages,10) : 
   convert_from_path(pdf_file, dpi=200, first_page=page, last_page = min(page+10-1,maxPages))

答案 1 :(得分:2)

可接受的答案有一个小问题。

  

maxPages = pdf2image._page_count(pdf_file)

由于已弃用_page_count,因此不能再使用

。我找到了可行的解决方案。

from PyPDF2 import PdfFileWriter, PdfFileReader    
inputpdf = PdfFileReader(open(pdf, "rb"))
maxPages = inputpdf.numPages
for page in range(1, maxPages, 100):
    pil_images = pdf2image.convert_from_path(pdf, dpi=200, first_page=page,
                                                     last_page=min(page + 100 - 1, maxPages), fmt= 'jpg',
                                                     thread_count=1, userpw=None,
                                                     use_cropbox=False, strict=False)

这样,无论文件多大,它都会一次处理100个,并且ram的使用总是最小的。

答案 2 :(得分:1)

我对此有点迟了,但是问题确实与进入内存的136页有关。您可以做三件事。

  1. 为转换后的图像指定格式。

默认情况下,pdf2image使用PPM作为其图像格式,速度更快,但也占用更多内存(每个图像超过30MB!)。解决此问题的方法是使用对内存更友好的格式,例如jpeg或png。

convert_from_path('C:\path\to\your\pdf', fmt='jpeg')

这可能会解决问题,但这主要是因为压缩,并且在某些时候(例如,+ 500页PDF)问题会再次出现。

  1. 使用输出目录

这是我推荐的一种,因为它允许您处理任何PDF。 README页面上的示例对此进行了很好的解释:

import tempfile

with tempfile.TemporaryDirectory() as path:
    images_from_path = convert_from_path('C:\path\to\your\pdf', output_folder=path)

这会将图像临时写入计算机存储,因此您不必手动删除它。不过,在退出with上下文之前,请确保进行所需的任何处理!

  1. 分块处理PDF文件

pdf2image允许您定义要处理的第一页和最后一页。也就是说,对于您的情况,使用136页的PDF,您可以执行以下操作:

for i in range(0, 136 // 10 + 1):
    convert_from_path('C:\path\to\your\pdf', first=i*10, last=(i+1)*10)

答案 3 :(得分:0)

相对较大的PDF将耗尽您的所有内存,并导致进程被杀死(除非您使用输出文件夹) https://github.com/Belval/pdf2image我想会帮助您理解。

解决方案:将pdf文件分成小部分,然后将其转换为图像。图片可以合并...

 from PyPDF2 import PdfFileWriter, PdfFileReader

 inputpdf = PdfFileReader(open("document.pdf", "rb"))

 for i in range(inputpdf.numPages):
     output = PdfFileWriter()
     output.addPage(inputpdf.getPage(i))
     with open("document-page%s.pdf" % i, "wb") as outputStream:
         output.write(outputStream)

split a multi-page pdf file into multiple pdf files with python?

 import numpy as np
 import PIL

 list_im = ['Test1.jpg', 'Test2.jpg', 'Test3.jpg']
 imgs    = [ PIL.Image.open(i) for i in list_im ]
 # pick the image which is the smallest, and resize the others to match it (can be   arbitrary image shape here)
 min_shape = sorted( [(np.sum(i.size), i.size ) for i in imgs])[0][1]
 imgs_comb = np.hstack( (np.asarray( i.resize(min_shape) ) for i in imgs ) )

 # save that beautiful picture
 imgs_comb = PIL.Image.fromarray( imgs_comb)
 imgs_comb.save( 'Trifecta.jpg' )    

 # for a vertical stacking it is simple: use vstack
 imgs_comb = np.vstack( (np.asarray( i.resize(min_shape) ) for i in imgs ) )
 imgs_comb = PIL.Image.fromarray( imgs_comb)
 imgs_comb.save( 'Trifecta_vertical.jpg' )

引用:Combine several images horizontally with Python

答案 4 :(得分:0)

最终,结合这些技术,我最终进行了如下所示的编码,目的是将pdf转换为pptx,同时避免内存溢出和良好的速度:

import os, sys, tempfile, pprint
from PIL import Image
from pdf2image import pdfinfo_from_path,convert_from_path
from pptx import Presentation
from pptx.util import Inches
from io import BytesIO

pdf_file = sys.argv[1]
print("Converting file: " + pdf_file)

# Prep presentation
prs = Presentation()
blank_slide_layout = prs.slide_layouts[6]

# Create working folder
base_name = pdf_file.split(".pdf")[0]

# Convert PDF to list of images
print("Starting conversion...")
print()
path: str = "C:/ppttemp"  #temp dir (use cron to delete files older than 1h hourly)
slideimgs = []
info = pdfinfo_from_path(pdf_file, userpw=None, poppler_path='C:/Program Files/poppler-0.90.1/bin/')
maxPages = info["Pages"]
for page in range(1, maxPages+1, 5) : 
   slideimgs.extend( convert_from_path(pdf_file, dpi=250, output_folder=path, first_page=page, last_page = min(page+5-1,maxPages), fmt='jpeg', thread_count=4, poppler_path='C:/Program Files/poppler-0.90.1/bin/', use_pdftocairo=True)   )

print("...complete.")
print()

# Loop over slides
for i, slideimg in enumerate(slideimgs):
    if i % 5 == 0:
        print("Saving slide: " + str(i))

    imagefile = BytesIO()
    slideimg.save(imagefile, format='jpeg')
    imagedata = imagefile.getvalue()
    imagefile.seek(0)
    width, height = slideimg.size

    # Set slide dimensions
    prs.slide_height = height * 9525
    prs.slide_width = width * 9525

    # Add slide
    slide = prs.slides.add_slide(blank_slide_layout)
    pic = slide.shapes.add_picture(imagefile, 0, 0, width=width * 9525, height=height * 9525)
    

# Save Powerpoint
print("Saving file: " + base_name + ".pptx")
prs.save(base_name + '.pptx')
print("Conversion complete. :)")
print()