我使用 Scala 隐式类来扩展我经常使用的对象。例如,我有一个类似于 Spark 上定义的方法DataFrame
:
implicit class DataFrameExtensions(df: DataFrame) {
def deduplicate: Boolean =
df.groupBy(df.columns.map(col): _*).count
}
但是如果类已经定义了相同的方法,则不会调用隐式定义。如果我稍后升级到定义DataFrame#deduplicate
方法的新版本 Spark 会发生什么?客户端代码将默默地切换到新的实现,这可能会导致细微的错误(或明显的错误,问题较少)。
使用反射,如果在我的隐式定义之前已经定义,我可以抛出运行时错误。然后,理论上,如果我的隐式方法与现有方法冲突,我可以检测到它并重命名我的隐式版本。但是,一旦我升级 Spark、运行应用程序并检测到问题,使用 IDE 重命名旧方法为时已晚,因为现在对本机 Spark 版本的任何引用。我必须恢复我的 Spark 版本,通过 IDE 重命名方法,然后再次升级。不是世界末日,但不是一个伟大的工作流程。DataFrame
deduplicate
df.deduplicate
有没有更好的方法来处理这种情况?如何安全地使用“pimp my library”模式?