在SparkR中使用Logging库:没有用于将此S4类强制转换为向量的方法

时间:2017-09-13 13:52:02

标签: r logging sparkr spark-repl

我最近开始使用SparkR,并希望在运行SQL查询,执行连接,将数据移动到csv等时使用它进行日志记录。我能够运行sql查询并将来自oracle和hive表的数据导入SparkR dataframe但不允许运行loginfo(“%s”,emp_df)。 (在下面得到S4错误):

as.character.default()出错:   没有将此S4类强制转换为向量的方法

下面是用于读取日志记录库的代码。 库(记录)

使用文件处理程序

创建日志文件
     `logReset()
          basicConfig()
          addHandler(writeToFile, file="Rlog.log")
          with(getLogger(), names(as.vector(handlers)))'

我已经浏览了日志文档,我发现“addHandler和removeHandler也作为Logger S4类的方法提供。” 没有记录器参数“ 但是没有得到太多的帮助....任何人都可以请告诉我如何克服这个问题。谢谢你提前帮助

0 个答案:

没有答案