我最近开始使用SparkR,并希望在运行SQL查询,执行连接,将数据移动到csv等时使用它进行日志记录。我能够运行sql查询并将来自oracle和hive表的数据导入SparkR dataframe但不允许运行loginfo(“%s”,emp_df)。 (在下面得到S4错误):
as.character.default()出错: 没有将此S4类强制转换为向量的方法
下面是用于读取日志记录库的代码。 库(记录)
`logReset()
basicConfig()
addHandler(writeToFile, file="Rlog.log")
with(getLogger(), names(as.vector(handlers)))'
我已经浏览了日志文档,我发现“addHandler和removeHandler也作为Logger S4类的方法提供。” 没有记录器参数“ 但是没有得到太多的帮助....任何人都可以请告诉我如何克服这个问题。谢谢你提前帮助