我使用PySpark 2.4.0,并且在id
中执行以下代码时:
mytextfield1
如何解决?
答案 0 :(得分:1)
在这种情况下,错误消息具有误导性,未安装pyarrow
。
根据官方文档Spark SQL Guide(导致Installing PyArrow),您只需执行以下命令之一:
$ conda install -c conda-forge pyarrow
或
$ pip install pyarrow
答案 1 :(得分:1)
我也遇到了这个问题,但事实证明这是一个虚拟环境问题。
所以我跑:
conda deactivate
conda activate <NAME_OF_VENV>
然后我可以正常安装。
答案 2 :(得分:0)
重新安装pyarrow
对我有用:
$ pip uninstall pyarrow -y
$ pip install pyarrow
,然后重新启动内核。
答案 3 :(得分:0)
我有同样的问题要让pyarrow
使用Spark 2.3。
以下解决了我的问题:
因为我的Deb9软件包来了,所以请卸载熊猫
sudo apt-get remove python-pandas
安装熊猫(pandas (0.24.2)
)
sudo pip install pandas
安装pyarrow(pyarrow (0.16.0)
):
sudo pip install pyarrow
将以下内容添加到spark-env.sh
ARROW_PRE_0_15_IPC_FORMAT=1
重新启动所有工人和主人
运行pyspark