我有4行SQL查询,其中我有以下子字符串查询:
SUBSTRING(T2.xxx,1,10) <= SUBSTRING(CONVERT(VARCHAR, T2.xxx, 111),1,10
我正在使用PySpark创建一个HIVE表并在查询的帮助下推送数据。代码没有问题,因为它适用于其他SQL类型查询。这是我遇到问题的一个例子。以下是错误:
pyspark.sql.utils.AnalysisException: u"cannot recognize input near 'CHAR' ',' 'T2' in function specification
我尝试过很多在线建议,但都没有。我在Cloudera网站下面找到了链接
https://www.cloudera.com/documentation/enterprise/release-notes/topics/cdh_rn_spark_ki.html
它说:
Spark SQL不遵守varchar类型的大小限制。
我不确定我是否引用了相关声明。任何人都可以帮助我理解我在这里经历的内容以及如何纠正错误?