2

我定义了以下函数:

import org.apache.spark.sql.catalyst.{ScalaReflection}

import ScalaReflection.universe
import universe.TypeTag

def scalaTypesFor(dataType: DataType): Set[TypeTag[_]] = ...

def scalaTypeOpt: Option[TypeTag[_]] = ...

val catalystType = ...
scalaTypeOpt.map(v => Set(v))
      .getOrElse{
        val default = scalaTypesFor(catalystType)
        default
      }

在这种情况下, scalaTypesFor 和 scalaTypeOpt 都应该产生一个带有通配符参数的 TypeTag,它们应该是相同的类型。但是,编译器给了我以下错误:

Error:(29, 51) inferred type arguments [scala.collection.immutable.Set[_117] forSome { type _$2; type _117 >: org.apache.spark.sql.catalyst.ScalaReflection.universe.TypeTag[_$2] <: org.apache.spark.sql.catalyst.ScalaReflection.universe.TypeTag[_] }] do not conform to method getOrElse's type parameter bounds [B >: scala.collection.immutable.Set[org.apache.spark.sql.catalyst.ScalaReflection.universe.TypeTag[_$2]] forSome { type _$2 }]
    val effective = scalaTypeOpt.map(v => Set(v)).getOrElse{
                                                  ^

类型推断有什么问题以及如何解决?

4

1 回答 1

2

我认为问题在于您有两种未知类型_并且不能保证它们兼容。scala 中的不可变集合也错误地保持不变(在人们开始评论之前,已经进行了很多讨论,最后的结论是,事实上,没有真正的根本原因使它们不协变),因此往往会产生烦人的打字问题也是如此。

没有编译器来测试,但你可以尝试一些事情

  1. (不太可能工作)将 Set 的类型归因于Set[TypeTag[_]](v)
  2. 更改您的代码,以便允许编译器捕获未知类型并向自己证明它是相同的类型:

    def scalaTypesFor[T](dataType: DataType): Set[TypeTag[T]] = ???
    
    def scalaTypeOpt[T]: Option[TypeTag[T]] = ???
    
    def xform[T] = {
       val catalystType = ???
       scalaTypeOpt[T].map(v => Set(v))
          .getOrElse{
           val default = scalaTypesFor[T](catalystType)
           default
         }
     }
    

或者如果您可以将它们设为本地定义

    def xform[T] = {
       def scalaTypesFor(dataType: DataType): Set[TypeTag[T]] = ???
       def scalaTypeOpt: Option[TypeTag[T]] = ???

       val catalystType = ???
       scalaTypeOpt.map(v => Set(v))
          .getOrElse{
           val default = scalaTypesFor(catalystType)
           default
         }
     }
于 2016-06-27T02:48:20.750 回答