我是Spark的新用户。一直在尝试使用Windows RStudio中的sparklyr(v。1.2.0)连接到Spark(v。2.4.3)。我尝试了以下代码的各种版本:
config <- spark_config()
config[["sparklyr.defaultPackages"]] <- NULL
sc <- spark_connect(master = "local", config = config)
作为回应,我收到以下错误:
prepare_windows_environment(spark_home,环境)中的错误:FindFileOwnerAndPermission错误(1789):信任关系 该工作站和主域之间的连接失败。此外: 警告消息:在system2(winutils,c(“ ls”,shQuote(hivePath)), stdout = TRUE):运行命令 '“ C:\ Users \ rdel1mac \ AppData \ Local \ spark \ spark-2.4.3-bin-hadoop2.7 \ tmp \ hadoop \ bin \ winutils.exe” ls “ C:\ Users \ rdel1mac \ AppData \ Local \ spark \ spark-2.4.3-bin-hadoop2.7 \ tmp \ hive”' 状态为1
“有趣”的事情是,我过去能够连接到Spark,但是最近却无法重新建立连接。我尝试了在线推荐的各种解决方案,例如注销Windows域,重新启动计算机等。我试图以各种方式在RStudio中重新建立连接,但没有成功。我的笔记本电脑确实具有管理权限。
谢谢!