Databricks - 如何使用更新的maven工件创建库

时间:2015-08-07 09:57:54

标签: maven apache-spark apache-spark-1.4

我们最初使用maven工件在数据库中创建了一个库。我们看到所有的罐子都存在于库中,请注意这个maven工件是我们的。

我们发现该工件几乎没有问题。修复它并在maven中央存储库中更新。

然后我们使用maven存储库中的工件在databricks中创建了一个库。在此库中,我们看不到更新工件中存在的更改。

Maven工件存在于文件夹/ FileStore / jars / maven /中。在此文件夹中存在我的工件的旧版本。我刚刚尝试删除/ FileStore / jars / maven /中的所有文件夹,并重新创建了库。但是我的库仍然没有包含新的工件。

databricks是否有本地存储库?如果是,我们如何强制更新它?

1 个答案:

答案 0 :(得分:0)

目前databricks没有更新库的规定。

唯一的办法是重新启动他们不会做的任务。

有关详情,请参阅databricks forum

但databricks已接受并启动了此功能。 http://feedback.databricks.com/forums/263785-product-feedback/suggestions/9286104-ability-to-clean-local-maven-repository