问题
问题 我正在尝试在 Hadoop 集群上安装 Spark。我已经安装并测试了 Hadoop。我可以探索 HDFS 并运行 MapReduce 示例。但是,当我尝试安装 Spark 时,我无法运行它,因为它无法启动并出现 EOFException。 系统信息: Rocky Linux 8.8 内核 4.18.0 Hadoop-3.3.6 spark-3.5.0-bin-不带 hadoop 设置: node32.cluster-主节点 node[33-35].cluster-HDFS 和计算节点 笔记 /opt/我有带有 Hadoop 和 Spark ...