Spark安装错误=>无法初始化编译器:在编译器镜像中找不到对象java.lang.Object

时间:2019-12-22 22:11:35

标签: java scala apache-spark hadoop

我已经安装了Java-11-openjdk-amd64并在usr / lib / jvm / Java-11-openjdk-amd64 / bin / java和Scala 2.11.12以及Spark 2.2.0和hadoop 2.7中自动运行了它在运行Windows 10的linux mint VM 19.2的桌面上,打开Spark-shell出现错误:

Failed to initialize compiler: object java.lang.Object in compiler mirror not found. 

我还在主目录的.bashrc文件中定义了变量,如下所示:

export JAVA_HOME=/usr/lib/jvm/Java-11-openjdk-amd64
export SCALA_HOME=/usr/local/src/scala/scala-2.11.12
export SPARK_HOME=/usr/lib/spark/spark-2.2.0-bin-hadoop2.7
export PATH=$SCALA_HOME/bin:$JAVA_HOME/bin:$SPARK_HOME/bin:$PATH

我该如何解决?我是否必须将其更改为Java 8才能运行spark?我正在尝试使用update-alternatives --config java在java-8-openjdk-amd64上运行它,但是我无法更改所选的Java,因为它给了我另一个错误:permission denied.

由于无法手动执行操作,如何使用命令行将Java 8移至另一个文件夹?我是Linux和Spark的新手。.

1 个答案:

答案 0 :(得分:0)

您应该使用<ul> {% for journal_entry in journal_entries %} <li>{{ journal_entry.date }}</li> <li>{{ ledger name from first line item in this journal_entry }}</li> <li>{{ ledger name from second line item in this journal_entry }}</li> <li>{{ description from first line item in this journal_entry }}</li> <li>{{ description from second line item in this journal_entry }}</li> {% endfor %} </ul> ,因为Spark在很大程度上取决于Java 8的某些功能,这些功能是在$rest = curl_init(); curl_setopt($rest,CURLOPT_URL,$url); curl_setopt($rest,CURLOPT_HTTPGET,1); curl_setopt($rest,CURLOPT_CUSTOMREQUEST,"PATCH"); curl_setopt($rest,CURLOPT_POSTFIELDS,$accountdata); curl_setopt($rest,CURLOPT_HTTPHEADER,$headers); curl_setopt($rest,CURLOPT_SSL_VERIFYPEER, false); curl_setopt($rest,CURLOPT_RETURNTRANSFER, true); $response = curl_exec($rest); $data = Zend_Json::decode($response); return $data; Java 8或在private中删除的。

复制:https://www.webservertalk.com/copy-directory-folder-linux-cmd