我在df1中使用以下命令是包含单列Name的数据帧,类型为String。
df1.write.format('jdbc').option('url', 'jdbc:hive2://hostname:port').option('dbtable','sampletest').save()
它引发了以下错误:
Py4JJavaError: An error occurred while calling o146.saveAsTable.
: java.sql.SQLException: org.apache.spark.sql.catalyst.parser.ParseException:
no viable alternative at input 'CREATE TABLE sampletest ("Name"'(line 1, pos 25)
我怀疑列名称周围的引号是否会引起问题。需要帮助解决方法或修复。还有什么应该是将sparksession直接连接到远程thrift服务器以解决查询? 感谢。