2

我正在尝试从 spark-shell 运行我的 scala 文件。这个文件调用了一些已经加载到 spark-context 中的其他 jar 文件

问题是如果出现故障,它只会打印堆栈跟踪的一部分。有什么办法可以启用整个堆栈跟踪?

myclassn: ClassifyFields : queryDb -> Problems extracting from DB
  at myclass.queryDb(ClassifyFields.java:231)
  at myclass.getColumnsWithKeys(ClassifyFields.java:258)
  ... 78 elided
4

1 回答 1

5

将以下值设置为零。

vals.isettings.maxPrintString=0

像下面的例子

scala> :power
Power mode enabled. :phase is at typer.
import scala.tools.nsc._, intp.global._, definitions._
Try :help or completions for vals._ and power._

scala> vals.isettings.maxPrintString
res0: Int = 800

scala> vals.isettings.maxPrintString=0
vals.isettings.maxPrintString: Int = 0

scala> vals.isettings.maxPrintString
res1: Int = 0

或发生异常后使用以下

lastException.printStackTrace
于 2020-05-06T14:47:16.530 回答