我已经安装了Java-11-openjdk-amd64并在usr / lib / jvm / Java-11-openjdk-amd64 / bin / java和Scala 2.11.12以及Spark 2.2.0和hadoop 2.7中自动运行了它在运行Windows 10的linux mint VM 19.2的桌面上,打开Spark-shell出现错误:
Failed to initialize compiler: object java.lang.Object in compiler mirror not found.
我还在主目录的.bashrc文件中定义了变量,如下所示:
export JAVA_HOME=/usr/lib/jvm/Java-11-openjdk-amd64
export SCALA_HOME=/usr/local/src/scala/scala-2.11.12
export SPARK_HOME=/usr/lib/spark/spark-2.2.0-bin-hadoop2.7
export PATH=$SCALA_HOME/bin:$JAVA_HOME/bin:$SPARK_HOME/bin:$PATH
我该如何解决?我是否必须将其更改为Java 8才能运行spark?我正在尝试使用update-alternatives --config java在java-8-openjdk-amd64上运行它,但是我无法更改所选的Java,因为它给了我另一个错误:permission denied.
由于无法手动执行操作,如何使用命令行将Java 8移至另一个文件夹?我是Linux和Spark的新手。.
答案 0 :(得分:0)
您应该使用<ul>
{% for journal_entry in journal_entries %}
<li>{{ journal_entry.date }}</li>
<li>{{ ledger name from first line item in this journal_entry }}</li>
<li>{{ ledger name from second line item in this journal_entry }}</li>
<li>{{ description from first line item in this journal_entry }}</li>
<li>{{ description from second line item in this journal_entry }}</li>
{% endfor %}
</ul>
,因为Spark在很大程度上取决于Java 8的某些功能,这些功能是在$rest = curl_init();
curl_setopt($rest,CURLOPT_URL,$url);
curl_setopt($rest,CURLOPT_HTTPGET,1);
curl_setopt($rest,CURLOPT_CUSTOMREQUEST,"PATCH");
curl_setopt($rest,CURLOPT_POSTFIELDS,$accountdata);
curl_setopt($rest,CURLOPT_HTTPHEADER,$headers);
curl_setopt($rest,CURLOPT_SSL_VERIFYPEER, false);
curl_setopt($rest,CURLOPT_RETURNTRANSFER, true);
$response = curl_exec($rest);
$data = Zend_Json::decode($response);
return $data;
,Java 8
或在private
中删除的。
复制:https://www.webservertalk.com/copy-directory-folder-linux-cmd