如何在Spark中使用dbutils?

时间:2019-04-02 12:24:21

标签: apache-spark apache-spark-sql

我想通过DBFS挂载s3存储桶,而这些教程都没有说明我需要添加哪些依赖项以及需要导入哪些依赖项才能使其正常工作。

说,在这里https://docs.databricks.com/spark/latest/data-sources/aws/amazon-s3.html,您可以看到到处都有这个“ dbutils”对象,但是没有地方说我需要添加什么依赖项以及需要导入什么来访问它。

有人可以帮忙吗?

1 个答案:

答案 0 :(得分:0)

dbutils是Databricks的专有产品。要使用它,您必须付费购买平台,然后才能直接使用它。

否则,没有这样的选择。它不是独立软件包,不能在Databricks分析平台之外购买或获得许可。