如何在 Windows 中使用 spark 2.0.0 安装 hadoop2.4.1

如何在 Windows 中使用 spark 2.0.0 安装 hadoop2.4.1

我想在 yarn 模式下使用 Hadoop 设置集群。我想使用 spark API 进行 map-reduce,并使用 spark submit 来部署我的应用程序。我想在集群上工作。有人能帮我如何使用 windows 在集群中安装 HADOOP 吗

答案1

如何安装hadoop2.4.1

这本身就是一个单独的、更广泛的问题。阅读Hadoop 集群安装文档

我建议获取单个节点,然后伪分布式,然后您可以设置一个集群。

使用 Spark 2.0.0

前往 Spark 下载页面,选择“用户提供的 Hadoop”选项

在大多数情况下,Spark 只需进行最少的编辑即可运行。Hadoop 需要进行配置。

确保HADOOP_CONF_DIRYARN_CONF_DIR指向包含 Hadoop 集群(客户端)配置文件的目录。

如果需要,spark-env.sh您可以编辑。spark-defaults.conf

如果您遇到具体问题,请编辑您的问题


或者您可以设置一个 Ambari 服务器,它将为您设置和安装所有内容,并发布 SSH 密钥管理。

相关内容