Java中的“Lambdifying”scala函数

时间:2015-08-05 13:23:02

标签: java scala lambda apache-spark traits

使用Java和Apache Spark(已经在Scala中重写),面对旧的API方法(org.apache.spark.rdd.JdbcRDD构造函数),它有AbstractFunction1作为它的参数:

abstract class AbstractFunction1[@scala.specialized -T1, @scala.specialized +R]() extends scala.AnyRef with scala.Function1[T1, R] {}

因为AbstractFunction1是一个抽象类,所以我不能使用Java8 lambda,所以我决定将scala.Function1 trait与java.util.functions.Function相同但不实现andThencompose方法。 结果,我创建了thes接口:

import scala.Function1;

@FunctionalInterface
public interface Funct<T, R> extends Function1<T, R>, Serializable {

    @Override
    default <A> Function1<A, R> compose(Function1<A, T> before) {
        return null;
    }

    @Override
    default <A> Function1<T, A> andThen(Function1<R, A> g) {
        return null;
    }
}

IDE对此接口没有任何问题,但在编译时,get:

[ERROR] Funct is not a functional interface
[ERROR] multiple non-overriding abstract methods found in interface Funct

是否可以包装Scala的特性,我可以将lambdas用于方法:

void doMagic(scala.Function1<T,V> arg)

1 个答案:

答案 0 :(得分:6)

所以你想要一个scala函数特性的功能接口版本,这样你就可以用java8 lambda语法调用它们了吗?你不必自己做这件事。看看https://github.com/scala/scala-java8-compat。它不如直接使用java8 lambda语法那么好,因为你仍然需要做

import static scala.compat.java8.JFunction.*;
doMagic(func(x => ...));

而不是

doMagic(x => ...);

但是在Scala 2.12中,一个很大的主题是Java8兼容性。 scala FunctionX类本身将作为SAM接口重做,因此当scala 2.12出现时,您将能够执行后者。至少那是我上次检查时的计划。