使用Java和Apache Spark(已经在Scala中重写),面对旧的API方法(org.apache.spark.rdd.JdbcRDD
构造函数),它有AbstractFunction1作为它的参数:
abstract class AbstractFunction1[@scala.specialized -T1, @scala.specialized +R]() extends scala.AnyRef with scala.Function1[T1, R] {}
因为AbstractFunction1
是一个抽象类,所以我不能使用Java8 lambda,所以我决定将scala.Function1 trait与java.util.functions.Function
相同但不实现andThen
和compose
方法。
结果,我创建了thes接口:
import scala.Function1;
@FunctionalInterface
public interface Funct<T, R> extends Function1<T, R>, Serializable {
@Override
default <A> Function1<A, R> compose(Function1<A, T> before) {
return null;
}
@Override
default <A> Function1<T, A> andThen(Function1<R, A> g) {
return null;
}
}
IDE对此接口没有任何问题,但在编译时,get:
[ERROR] Funct is not a functional interface
[ERROR] multiple non-overriding abstract methods found in interface Funct
是否可以包装Scala的特性,我可以将lambdas用于方法:
void doMagic(scala.Function1<T,V> arg)
答案 0 :(得分:6)
所以你想要一个scala函数特性的功能接口版本,这样你就可以用java8 lambda语法调用它们了吗?你不必自己做这件事。看看https://github.com/scala/scala-java8-compat。它不如直接使用java8 lambda语法那么好,因为你仍然需要做
import static scala.compat.java8.JFunction.*;
doMagic(func(x => ...));
而不是
doMagic(x => ...);
但是在Scala 2.12中,一个很大的主题是Java8兼容性。 scala FunctionX类本身将作为SAM接口重做,因此当scala 2.12出现时,您将能够执行后者。至少那是我上次检查时的计划。