如何在pyspark shell中使用粘贴模式?

时间:2016-01-15 08:34:40

标签: python apache-spark pyspark

如何在" pyspark"中进入粘贴模式Spark Shell?实际上我正在寻找一个等同的&#34 ;: paste"命令(在Scala Spark Shell中工作)在" pyspark"中。通过使用这种模式,我想将整个代码片段粘贴到shell中,而不是逐行执行。

1 个答案:

答案 0 :(得分:6)

如果您使用IPython终端,则可以使用%paste / %cpaste魔法进行粘贴。第一个自动执行剪贴板中的代码,第二个更靠近Scala REPL :paste,需要-- Ctrl-D 终止。

也可以使用%edit magic打开外部编辑器并在退出时执行代码。

标准Python shell不提供类似的功能。