Spark 安装

Spark 安装

我已经安装并使用以下命令检查了它java -version,该命令给出了以下输出:

openjdk 版本“1.8.0_162”
OpenJDK 运行环境(构建 1.8.0_162-8u162-b12-0ubuntu0.17.10.2-b12)
OpenJDK 64 位服务器 VM(构建 25.162-b12,混合模式)

之后我下载了 spark 2.3.0 并尝试安装它。在最后一步,当我尝试在以下位置运行命令时:

$SPARK_PATH sbin/start-all.sh

输出如下:

启动 org.apache.spark.deploy.master.Master,
记录到 /usr/lib/spark/spark-2.3.0-bin-hadoop2.7/logs/spark-- org.apache.spark.deploy.master.Master-1-ubuntu.out
启动失败:nice -n 0 /usr/lib/spark/spark-2.3.0-bin-hadoop2.7/bin/spark-class org.apache.spark.deploy.master.Master --host ubuntu --port 7077 --webui-port 8080
/usr/lib/spark/spark-2.3.0-bin-hadoop2.7/bin/spark-class:
第 71 行:/usr/lib/java/jdk1.8.0_161/bin/java:
无法执行二进制文件:Exec 格式错误

我不知道我这里缺少什么。
我需要一些帮助!

附言:的输出jps为:

14531 Worker
14568 Jps

答案1

确保你JAVA_HOMEspark-env.sh设置为您已安装的工作开放 JDK 版本。

相关内容