标签: sql apache-spark pyspark apache-spark-sql pyspark-sql
我通过Azure Databricks如下创建了spark SQL表:
create table sample1(price double)
实际文件中的数据类似“ abc”,而不是双精度值。
在将'abc'字符串值插入double列中的同时,它接受为NULL,没有任何失败。我担心的是为什么我们没有出现任何错误?在这种情况下,我想失败消息。
'abc'
double
NULL
如果我缺少什么,请告诉我。我想禁用数据类型的隐式转换。