标签: apache-spark-sql
我正在开发应用程序,它应该从几种不同类型的数据存储(如HBase或ElasticSearch)访问数据。我的计划是通过Spark DataFrame使用Spark SQL。
现在问题就在于此。有时系统用户会请求运行长时间查询来转换这些数据,在这种情况下(例如超过1分钟?)我想以不同的方式处理该请求。但为此,我需要知道查询似乎运行了多长时间。
有没有办法在实际运行之前“估计”Spark SQL查询的运行时间?