如何为 Databricks 笔记本启用代码自动完成功能?
我希望至少在Databricks中的 Scala&Spark 笔记本中有一个下拉列表,其中包含对象,提示,变量名自动完成等可用方法。
他们声称自2015年以来就具有自动填充功能:
https://forums.databricks.com/questions/784/is-there-autocomplete-for-name-completion-tooltip.html。
和一些服务器自动完成功能:
https://docs.databricks.com/release-notes/product/2018/april.html。
对我来说,它们都不是开箱即用的,我找不到在设置中启用它的方法。
但是,它仍然与IntelliJ https://www.jetbrains.com/help/idea/auto-completing-code.html中提供的功能还差得很远 是否有一些插件或语言服务器API?
示例:
val df = spark.read.schema(header).json(fileName)
df.repartition(1)
.write
.mode("overwrite")
.option("path", "/.../my_df")
.partitionBy("date")
.save()
这真是令人沮丧,必须手工打印所有这些内容才能读取和写入数据框。
答案 0 :(得分:1)
当您拥有所需的软件包和framworks时,如果您使用的是sbt,intellij会自动自动完成代码并为您提供建议,请等到所需的软件包加载完毕后再开始执行,以自动完成代码。然后为您
答案 1 :(得分:1)
应该在笔记本中启用自动完成功能,但是必须将其连接到群集,并且您将需要执行所有包含要为其执行自动完成功能的对象的单元。 (https://docs.databricks.com/release-notes/product/2018/april.html#command-autocomplete)
要查看对象上可用的方法,变量等,请键入对象的名称,后跟句点“。”,然后按Tab键。它不能像IntelliJ或其他IDE一样工作,因此您必须按tab才能显示列表。