是否有任何方法可以在spark 3.0表中为列保留特殊字符?
我需要做类似的事情
CREATE TABLE schema.table
AS
SELECT id=abc
FROM tbl1
我在Hadoop中阅读,您会在列名周围打上勾号,但这在火花中不起作用。
如果在PySpark中有一种方法可以正常工作
答案 0 :(得分:0)
事实证明,镶木地板和增量格式在任何情况下都不接受特殊字符。您必须使用行格式定界
spark.sql("""CREATE TABLE schema.test
ROW FORMAT DELIMITED
SELECT 1 AS `brand=one` """)