如何为Databricks笔记本设置自动完成功能

时间:2018-11-01 12:38:02

标签: apache-spark intellij-idea autocomplete editing databricks

如何为 Databricks 笔记本启用代码自动完成功能?
我希望至少在Databricks中的 Scala&Spark 笔记本中有一个下拉列表,其中包含对象,提示,变量名自动完成等可用方法。

他们声称自2015年以来就具有自动填充功能: https://forums.databricks.com/questions/784/is-there-autocomplete-for-name-completion-tooltip.html
和一些服务器自动完成功能:
https://docs.databricks.com/release-notes/product/2018/april.html

对我来说,它们都不是开箱即用的,我找不到在设置中启用它的方法。

但是,它仍然与IntelliJ https://www.jetbrains.com/help/idea/auto-completing-code.html中提供的功能还差得很远 是否有一些插件或语言服务器API?

示例:

val df = spark.read.schema(header).json(fileName)

df.repartition(1)
     .write
     .mode("overwrite")
     .option("path", "/.../my_df")
     .partitionBy("date")
     .save()

这真是令人沮丧,必须手工打印所有这些内容才能读取和写入数据框。

2 个答案:

答案 0 :(得分:1)

当您拥有所需的软件包和framworks时,如果您使用的是sbt,intellij会自动自动完成代码并为您提供建议,请等到所需的软件包加载完毕后再开始执行,以自动完成代码。然后为您

Refer here - Code completion intellij

答案 1 :(得分:1)

应该在笔记本中启用自动完成功能,但是必须将其连接到群集,并且您将需要执行所有包含要为其执行自动完成功能的对象的单元。 (https://docs.databricks.com/release-notes/product/2018/april.html#command-autocomplete

要查看对象上可用的方法,变量等,请键入对象的名称,后跟句点“。”,然后按Tab键。它不能像IntelliJ或其他IDE一样工作,因此您必须按tab才能显示列表。