Spark-Dataframe一次处理/保留列是否有任何大小限制?

时间:2016-08-01 10:01:32

标签: spark-dataframe

我想知道,Spark-Dataframe是否对Column Size有限制?像一个Dataframe一次可以处理/保持的最大列数小于500.我问,因为在解析少于500个标签的xml时,我可以成功处理并生成相应的镶木地板文件,但如果是超过500,然后生成的实木复合地板是空的。对此有何想法?

0 个答案:

没有答案