我正在尝试从Pandas Dataframe创建Spark Dataframe并尝试了许多变通方法但仍然失败。这是我的代码,我只想尝试遵循许多基本示例之一:
test = pd.DataFrame([1,2,3,4,5])
type(test)
from pyspark import SparkContext
sc = SparkContext(master="local[4]")
sqlCtx = SQLContext(sc)
spark_df = sqlCtx.createDataFrame(test)
我正在尝试使用具有2000列和数十万行的pandas数据帧,但我创建了上述测试df,以确保它不是数据帧的问题。事实上我得到了完全相同的错误:
Py4JJavaError: An error occurred while calling o596.get.
: java.util.NoSuchElementException: spark.sql.execution.pandas.respectSessionTimeZone
at org.apache.spark.sql.internal.SQLConf$$anonfun$getConfString$2.apply(SQLConf.scala:884)
at org.apache.spark.sql.internal.SQLConf$$anonfun$getConfString$2.apply(SQLConf.scala:884)
at scala.Option.getOrElse(Option.scala:121)
at org.apache.spark.sql.internal.SQLConf.getConfString(SQLConf.scala:884)
at org.apache.spark.sql.RuntimeConfig.get(RuntimeConfig.scala:74)
at sun.reflect.NativeMethodAccessorImpl.invoke0(Native Method)
at sun.reflect.NativeMethodAccessorImpl.invoke(NativeMethodAccessorImpl.java:62)
at sun.reflect.DelegatingMethodAccessorImpl.invoke(DelegatingMethodAccessorImpl.java:43)
at java.lang.reflect.Method.invoke(Method.java:498)
at py4j.reflection.MethodInvoker.invoke(MethodInvoker.java:244)
at py4j.reflection.ReflectionEngine.invoke(ReflectionEngine.java:357)
at py4j.Gateway.invoke(Gateway.java:280)
at py4j.commands.AbstractCommand.invokeMethod(AbstractCommand.java:132)
at py4j.commands.CallCommand.execute(CallCommand.java:79)
at py4j.GatewayConnection.run(GatewayConnection.java:214)
at java.lang.Thread.run(Thread.java:748)
答案 0 :(得分:0)
你有这套吗?
export PYTHONPATH=$SPARK_HOME/python/:$PYTHONPATH
同样可以肯定的是,添加
的路径py4j zip(我的是py4j-0.10.1-src.zip)
在spark目录中:
export PYTHONPATH=$SPARK_HOME/python/lib/py4j-0.10.1-src.zip:$PYTHONPATH
答案 1 :(得分:0)
我解决了这个问题 - 我忘了将以下几行代码添加到我的anaconda笔记本的开头:
import findspark
findspark.init()