2

我最近开始使用 SparkR,并希望在运行 sql 查询、执行连接、将数据移动到 csv 等时使用它进行日志记录。我能够运行 sql 查询并将来自 oracle 和 hive 表的数据输入到 SparkR 数据帧中,但它不允许运行 loginfo("%s",emp_df)。(下面出现 S4 错误):

as.character.default() 中的错误:没有将此 S4 类强制为向量的方法

下面是用于读取日志库的代码。图书馆(记录)

使用文件处理程序创建日志文件

     `logReset()
          basicConfig()
          addHandler(writeToFile, file="Rlog.log")
          with(getLogger(), names(as.vector(handlers)))'

我浏览了日志记录文档,发现“addHandler 和 removeHandler 也作为 Logger S4 类的方法提供。在这种情况下,没有记录器参数”但是没有得到太多帮助....谁能告诉我如何克服这个..提前感谢帮助

4

0 回答 0