前言
Spark 是 Berkeley 开发的分布式计算的框架,相对于 Hadoop 来说,Spark 可以缓存中间结果到内存而提高某些需要迭代的计算场景的效率,目前收到广泛关注。下面来一起看看使用docker快速搭建Spark集群的方法教程。
适用人群
- 正在使用spark的开发者
- 正在学习docker或者spark的开发者
准备工作
- 安装docker
- (可选)下载java和spark with hadoop
Spark集群
Spark运行时架构图
如上图: Spark集群由以下两个部分组成
- 集群管理器(Mesos, Yarn或者standalone Mode)
- 工作节点(worker)
如何docker化(本例使用Standalone模式)
1、将spark集群拆分
base(基础镜像)
master(主节点镜像)
worker(工作镜像)
2、编写base Dockerfile
注: 为方便切换版本基础镜像选择的是centos, 所以要下载java和spark, 方便调试, 可以下载好安装文件后本地搭建一个静态文件服务器, 使用Node.js 的http-server可以快速搞定
命令如下
npm install http-server -g http-server -p 54321 ~/Downloads
正式开始写Dockerfile
FROM centos:7 MAINTAINER RavenZZ <raven.zhu@outlook.com> # 安装系统工具 RUN yum update -y RUN yum upgrade -y RUN yum install -y byobu curl htop man unzip nano wget RUN yum clean all # 安装 Java ENV JDK_VERSION 8u11 ENV JDK_BUILD_VERSION b12 # 如果网速快,可以直接从源站下载 #RUN curl -LO "http://download.oracle.com/otn-pub/java/jdk/$JDK_VERSION-$JDK_BUILD_VERSION/jdk-$JDK_VERSION-linux-x64.rpm" -H 'Cookie: oraclelicense=accept-securebackup-cookie' && rpm -i jdk-$JDK_VERSION-linux-x64.rpm; rm -f jdk-$JDK_VERSION-linux-x64.rpm; RUN curl -LO "http://192.168.199.102:54321/jdk-8u11-linux-x64.rpm" && rpm -i jdk-$JDK_VERSION-linux-x64.rpm; rm -f jdk-$JDK_VERSION-linux-x64.rpm; ENV JAVA_HOME /usr/java/default RUN yum remove curl; yum clean all WORKDIR spark RUN curl -LO 'http://192.168.199.102:54321/spark-2.1.0-bin-hadoop2.7.tgz' && tar zxf spark-2.1.0-bin-hadoop2.7.tgz RUN rm -rf spark-2.1.0-bin-hadoop2.7.tgz RUN mv spark-2.1.0-bin-hadoop2.7/* ./ ENV SPARK_HOME /spark ENV PATH /spark/bin:$PATH ENV PATH /spark/sbin:$PATH
3、编写master Dockerfile
FROM ravenzz/spark-hadoop MAINTAINER RavenZZ <raven.zhu@outlook.com> COPY master.sh / ENV SPARK_MASTER_PORT 7077 ENV SPARK_MASTER_WEBUI_PORT 8080 ENV SPARK_MASTER_LOG /spark/logs EXPOSE 8080 7077 6066 CMD ["/bin/bash","/master.sh"]
4、编写worker Dockerfile
FROM ravenzz/spark-hadoop MAINTAINER RavenZZ <raven.zhu@outlook.com> COPY worker.sh / ENV SPARK_WORKER_WEBUI_PORT 8081 ENV SPARK_WORKER_LOG /spark/logs ENV SPARK_MASTER "spark://spark-master:32769" EXPOSE 8081 CMD ["/bin/bash","/worker.sh"]
5、docker-compose
version: '3' services: spark-master: build: context: ./master dockerfile: Dockerfile ports: - "50001:6066" - "50002:7077" # SPARK_MASTER_PORT - "50003:8080" # SPARK_MASTER_WEBUI_PORT expose: - 7077 spark-worker1: build: context: ./worker dockerfile: Dockerfile ports: - "50004:8081" links: - spark-master environment: - SPARK_MASTER=spark://spark-master:7077 spark-worker2: build: context: ./worker dockerfile: Dockerfile ports: - "50005:8081" links: - spark-master environment: - SPARK_MASTER=spark://spark-master:7077
6、测试集群
docker-compose up
访问http://localhost:50003/ 结果如图
参考链接
本例源代码
本地下载:点击这里
总结
以上就是这篇文章的全部内容了,希望本文的内容对大家的学习或者工作能带来一定的帮助,如果有疑问大家可以留言交流,谢谢大家对的支持。
免责声明:本站文章均来自网站采集或用户投稿,网站不提供任何软件下载或自行开发的软件! 如有用户或公司发现本站内容信息存在侵权行为,请邮件告知! 858582#qq.com
稳了!魔兽国服回归的3条重磅消息!官宣时间再确认!
昨天有一位朋友在大神群里分享,自己亚服账号被封号之后居然弹出了国服的封号信息对话框。
这里面让他访问的是一个国服的战网网址,com.cn和后面的zh都非常明白地表明这就是国服战网。
而他在复制这个网址并且进行登录之后,确实是网易的网址,也就是我们熟悉的停服之后国服发布的暴雪游戏产品运营到期开放退款的说明。这是一件比较奇怪的事情,因为以前都没有出现这样的情况,现在突然提示跳转到国服战网的网址,是不是说明了简体中文客户端已经开始进行更新了呢?
更新日志
- 小骆驼-《草原狼2(蓝光CD)》[原抓WAV+CUE]
- 群星《欢迎来到我身边 电影原声专辑》[320K/MP3][105.02MB]
- 群星《欢迎来到我身边 电影原声专辑》[FLAC/分轨][480.9MB]
- 雷婷《梦里蓝天HQⅡ》 2023头版限量编号低速原抓[WAV+CUE][463M]
- 群星《2024好听新歌42》AI调整音效【WAV分轨】
- 王思雨-《思念陪着鸿雁飞》WAV
- 王思雨《喜马拉雅HQ》头版限量编号[WAV+CUE]
- 李健《无时无刻》[WAV+CUE][590M]
- 陈奕迅《酝酿》[WAV分轨][502M]
- 卓依婷《化蝶》2CD[WAV+CUE][1.1G]
- 群星《吉他王(黑胶CD)》[WAV+CUE]
- 齐秦《穿乐(穿越)》[WAV+CUE]
- 发烧珍品《数位CD音响测试-动向效果(九)》【WAV+CUE】
- 邝美云《邝美云精装歌集》[DSF][1.6G]
- 吕方《爱一回伤一回》[WAV+CUE][454M]