使用netlib-java进行“符号查找错误”

时间:2016-06-30 21:54:51

标签: java apache-spark java-native-interface fedora blas

背景&问题

我在运行Fedora 23的机器上运行Spark的MLLib中的示例时遇到了一些麻烦。我已根据Spark文档使用以下选项构建了Spark 1.6.2:

build/mvn -Pnetlib-lgpl -Pyarn -Phadoop-2.4 \
  -Dhadoop.version=2.4.0 -DskipTests clean package

并运行二进制分类示例:

bin/spark-submit --class org.apache.spark.examples.mllib.BinaryClassification \
  examples/target/scala-*/spark-examples-*.jar \
  --algorithm LR --regType L2 --regParam 1.0 \
  data/mllib/sample_binary_classification_data.txt

我收到以下错误:

/usr/lib/jvm/java-1.8.0-openjdk-1.8.0.92-1.b14.fc23.x86_64/jre/bin/java: symbol lookup error: /tmp/jniloader5830472710956533873netlib-native_system-linux-x86_64.so: undefined symbol: cblas_dscal

此形式的错误(使用netlib的符号查找错误)不限于此特定示例。另一方面,弹性网示例(./bin/run-example ml.LinearRegressionWithElasticNetExample)运行没有问题。

尝试解决方案

我尝试过多种解决方案无济于事。例如,我在https://datasciencemadesimpler.wordpress.com/tag/blas/处查看了一些建议,虽然我可以从com.github.fommil.netlib.BLASLAPACK成功导入,但上述符号查找错误仍然存​​在。

我已经阅读了fommil / netlib-java中的netlib-java文档,并确保我的系统具有libblasliblapack共享对象文件:

 $ ls /usr/lib64 | grep libblas
libblas.so
libblas.so.3
libblas.so.3.5
libblas.so.3.5.0

$ ls /usr/lib64 | grep liblapack
liblapacke.so
liblapacke.so.3
liblapacke.so.3.5
liblapacke.so.3.5.0
liblapack.so
liblapack.so.3
liblapack.so.3.5
liblapack.so.3.5.0

我找到的最有希望的建议是http://fossdev.blogspot.com/2015/12/scala-breeze-blas-lapack-on-linux.html,建议包括

JAVA_OPTS="- Dcom.github.fommil.netlib.BLAS=com.github.fommil.netlib.NativeRefBLAS"

sbt脚本中的

。因此,我在_COMPILE_JVM_OPTS="..."脚本中将这些选项附加到build/mvn,这也没有解决问题。

最后,我在网上找到的最后一点建议建议将以下标志传递给sbt

sbt -Dcom.github.fommil.netlib.BLAS=com.github.fommil.netlib.F2jBLAS \
-Dcom.github.fommil.netlib.LAPACK=com.github.fommil.netlib.F2jLAPACK \
-Dcom.github.fommil.netlib.ARPACK=com.github.fommil.netlib.F2jARPACK

并且问题仍然存在。我的帖子中仅限于两个链接,但建议可以在github上找到lildata的'scaladatascience'回购的README.md。

是否有人遇到过这个问题并成功解决了?非常感谢任何和所有的帮助或建议。

1 个答案:

答案 0 :(得分:6)

已经过了几个月了,但我回到了这个问题,并且能够得到一个正常运作的解决方法(如果其他人有同样的问题,可以在这里发帖)。

归结为图书馆优先;所以,通过调用:

$ export LD_PRELOAD=/path/to/libopenblas.so

在启动Spark之前,一切都按预期工作。

我在阅读后想出了解决方案: