python struct.error:'我'格式要求-2147483648< = number< = 2147483647

时间:2017-12-12 15:47:36

标签: python python-3.x struct multiprocessing starmap

问题

我愿意使用多处理模块(multiprocessing.Pool.starmap()进行功能工程。 但是,它给出了如下错误消息。我猜这个错误消息是关于输入的大小(2147483647 = 2 ^ 31 - 1?),因为相同的代码对于输入数据帧的一小部分(frac=0.05)(train_scala,test,ts)运行平稳。我将数据帧的类型转换为尽可能小,但它并没有变得更好。

anaconda版本为4.3.30,Python版本为3.6(64位)。 并且系统的内存大小超过128GB,超过20个内核。 您是否建议使用任何指针或解决方案来解决此问题?如果这个问题是由多处理模块的大数据引起的,那么我应该使用多少小数据来利用Python3上的多处理模块?

代码:

from multiprocessing import Pool, cpu_count
from itertools import repeat    
p = Pool(8)
is_train_seq = [True]*len(historyCutoffs)+[False]
config_zip = zip(historyCutoffs, repeat(train_scala), repeat(test), repeat(ts), ul_parts_path, repeat(members), is_train_seq)
p.starmap(multiprocess_FE, config_zip)

错误消息:

Traceback (most recent call last):
  File "main_1210_FE_scala_multiprocessing.py", line 705, in <module>
    print('----Pool starmap start----')
  File "/home/dmlab/ksedm1/anaconda3/envs/py36/lib/python3.6/multiprocessing/pool.py", line 274, in starmap
    return self._map_async(func, iterable, starmapstar, chunksize).get()
  File "/home/dmlab/ksedm1/anaconda3/envs/py36/lib/python3.6/multiprocessing/pool.py", line 644, in get
    raise self._value
  File "/home/dmlab/ksedm1/anaconda3/envs/py36/lib/python3.6/multiprocessing/pool.py", line 424, in _handle_tasks
    put(task)
  File "/home/dmlab/ksedm1/anaconda3/envs/py36/lib/python3.6/multiprocessing/connection.py", line 206, in send
    self._send_bytes(_ForkingPickler.dumps(obj))
  File "/home/dmlab/ksedm1/anaconda3/envs/py36/lib/python3.6/multiprocessing/connection.py", line 393, in _send_bytes
    header = struct.pack("!i", n)
struct.error: 'i' format requires -2147483648 <= number <= 2147483647

额外信息

  • historyCutoffs是一个整数列表
  • train_scala是一个pandas DataFrame(377MB)
  • test是一个pandas DataFrame(15MB)
  • ts是一个pandas DataFrame(547MB)
  • ul_parts_path是目录列表(字符串)
  • is_train_seq是布尔值列表

额外代码:方法multiprocess_FE

def multiprocess_FE(historyCutoff, train_scala, test, ts, ul_part_path, members, is_train):
    train_dict = {}
    ts_dict = {}
    msno_dict = {}
    ul_dict = {}
    if is_train == True:
        train_dict[historyCutoff] = train_scala[train_scala.historyCutoff == historyCutoff]
    else:
        train_dict[historyCutoff] = test
    msno_dict[historyCutoff] = set(train_dict[historyCutoff].msno)
    print('length of msno is {:d} in cutoff {:d}'.format(len(msno_dict[historyCutoff]), historyCutoff))
    ts_dict[historyCutoff] = ts[(ts.transaction_date <= historyCutoff) & (ts.msno.isin(msno_dict[historyCutoff]))]
    print('length of transaction is {:d} in cutoff {:d}'.format(len(ts_dict[historyCutoff]), historyCutoff))    
    ul_part = pd.read_csv(gzip.open(ul_part_path, mode="rt"))  ##.sample(frac=0.01, replace=False)
    ul_dict[historyCutoff] = ul_part[ul_part.msno.isin(msno_dict[historyCutoff])]
    train_dict[historyCutoff] = enrich_by_features(historyCutoff, train_dict[historyCutoff], ts_dict[historyCutoff], ul_dict[historyCutoff], members, is_train)

2 个答案:

答案 0 :(得分:12)

进程之间的通信协议使用 pickling ,并且pickle数据以pickle数据的大小为前缀。对于您的方法,所有参数被腌制为一个对象。

你生成了一个对象,当pickle大于i struct formatter(一个四字节有符号整数)时,它打破了代码所做的假设。

您可以将数据帧的读取委派给子进程,而只是发送加载数据帧所需的元数据。它们的总体大小接近1GB,在进程之间通过管道共享太多数据。

引用Programming guidelines section

  

更好地继承而不是pickle / unpickle

     

使用spawnforkserver启动方法时,multiprocessing中的许多类型都需要可选,以便子进程可以使用它们。 但是,通常应避免使用管道或队列将共享对象发送到其他进程。相反,您应该安排程序,以便需要访问其他地方创建的共享资源的进程可以从祖先进程继承它。

如果您没有在Windows上运行并使用spawnforkserver方法,则可以在启动子进程之前将数据帧加载为globals ,此时子进程将通过正常的OS写时复制内存页共享机制“继承”数据。

答案 1 :(得分:5)

此问题已在最近对python的PR中修复 https://github.com/python/cpython/pull/10305

如果需要,您可以在本地进行此更改以使其立即为您使用,而无需等待python和anaconda发布。