标签: apache-spark parallel-processing pyspark apache-spark-sql databricks
我需要创建某些DF来将原始数据加载到我的上下文中以构建ETL逻辑。出于同样的目的,我希望并行加载所有原始数据DF,并且我使用Databricks Notebook在专用集群上创建/执行代码。
如何在同一个Databricks笔记本中并行执行两个DF?