我想使用 安装 Hadoop 和 Spark aptitude
,而不是使用如何安装 Hadoop?。
hadoop-ubuntu
似乎已经死亡近两年了。
我想知道为什么Hadoop 和 Spark 尚未为 Ubuntu 打包(除了通常的“没有志愿者”)。
PS.我的目标是在本地开发并部署到 Spark 服务器。
答案1
有一个 repo 包含适用于 Ubuntu 的 hadoop 和 spark 包: http://bigtop.apache.org 我相信它并不总是最新的闪亮版本 - 但比 2 年更新。
# curl http://www.apache.org/dist/bigtop/bigtop-1.0.0/repos/debian8/bigtop.list > /etc/apt/sources.list.d/bigtop.list
# apt-key adv --keyserver keyserver.ubuntu.com --recv-keys 3A367EA0FA08B173
# aptitude update
# aptitude install spark-python
到目前为止,他们的软件包已经很旧了(hadoop 2.6.0,spark 1.3.1)