我正在尝试从 spark-shell 运行我的 scala 文件。这个文件调用了一些已经加载到 spark-context 中的其他 jar 文件
问题是如果出现故障,它只会打印堆栈跟踪的一部分。有什么办法可以启用整个堆栈跟踪?
myclassn: ClassifyFields : queryDb -> Problems extracting from DB
at myclass.queryDb(ClassifyFields.java:231)
at myclass.getColumnsWithKeys(ClassifyFields.java:258)
... 78 elided