如何解决错误:“numpy.dtype大小错误,请尝试重新编译”

时间:2018-01-22 22:15:58

标签: python python-2.7 numpy pyspark virtualenv

当我在 Mac OS X

上的代码中执行以下语句时
select 
e.employeeid,
min(h.sourcesystem) minsourcesystem
 from #eval e
inner join #hr h
on e.employeeid = h.employeeid
group by e.employeeid



employeeid  minsourcesystem
----------- ---------------
1           1
2           1
3           2
4           3

我有以下错误:

import json, nltk, requests, time, smtplib, uuid

从日志中可以看出,我正在使用python 2,7和pyspark(spark 1.6)。

也许这个问题与软件试图使用OSX系统Python这个使用特定版本的numpy的事实有关,我无法理解如何避免这种情况。

任何人都可以帮助我?

点击此链接:ValueError: numpy.dtype has the wrong size, try recompiling 该问题与针对最新版本的numpy编译的包的二进制分发有关。 在我的例子中,似乎spark引用OSX系统python(“/System/Library/Frameworks/Python.framework/Versions/2.7/Extras/lib/python/scipy/stats/stats.py”)而不是“/ Library” /Python/2.7“我在我的虚拟环境中使用。

0 个答案:

没有答案