当前位置:首页 > 文章列表 > 文章 > 软件教程 > SparkHA集群搭建详细教程

SparkHA集群搭建详细教程

2025-05-25 20:52:11 0浏览 收藏

本文详细介绍了在CentOS-6.6环境下搭建Spark HA集群的完整攻略。使用四个虚拟机(hadoop01至hadoop04)并以hadoop用户身份进行操作。文章涵盖了从环境准备、Zookeeper集群配置、Spark安装包的下载与解压,到详细的配置步骤,包括修改spark-env.sh和slaves文件,启动Zookeeper和Spark集群,以及验证高可用性的具体操作。通过这些步骤,成功搭建了一个高可用的Spark集群。


环境准备

我使用的是CentOS-6.6版本的4个虚拟机,主机名为hadoop01、hadoop02、hadoop03、hadoop04。集群将由hadoop用户搭建(在生产环境中,root用户通常不可随意使用)。关于虚拟机的安装,可以参考以下两篇文章:在Windows中安装一台Linux虚拟机,以及通过已有的虚拟机克隆四台虚拟机。Zookeeper集群参考zookeeper-3.4.10的安装配置。spark安装包的下载地址为:https://mirrors.aliyun.com/apache/spark/,我使用的是spark-2.2.0-bin-hadoop2.7.tgz,需根据自己机器中的hadoop版本选择对应的spark版本

  1. 集群规划

Spark HA集群搭建

  1. 具体步骤

(1) 将安装包上传到hadoop01服务器并解压

[hadoop@hadoop01 soft]$ tar zxvf spark-2.2.0-bin-hadoop2.7.tgz -C /home/hadoop/apps/
# 解压后如果觉得安装目录名称太长,可以修改一下
[hadoop@hadoop01 soft]$ cd /home/hadoop/apps/
[hadoop@hadoop01 apps]$ mv spark-2.2.0-bin-hadoop2.7 spark-2.2.0

(2) 修改spark-env.sh配置文件

# 将SPARK_HOME/conf/下的spark-env.sh.template文件复制为spark-env.sh
[hadoop@hadoop01 apps]$ cd spark-2.2.0/conf
[hadoop@hadoop01 conf]$ mv spark-env.sh.template spark-env.sh
# 修改spark-env.sh配置文件,添加如下内容
[hadoop@hadoop01 conf]$ vim spark-env.sh 
# 配置JAVA_HOME,一般来说,不配置也可以,但可能会出现问题,还是配上吧
export JAVA_HOME=/usr/local/java/jdk1.8.0_73
# 一般来说,spark任务有很大可能性需要从HDFS上读取文件,所以配置上
# 如果你的spark只读取本地文件,且不需yarn管理,不用配置
export HADOOP_CONF_DIR=/home/hadoop/apps/hadoop-2.7.4/etc/hadoop
# 每个Worker最多可以使用的cpu core的个数,我的虚拟机只有一个...
# 真实服务器如果有32个,可以设置为32个
export SPARK_WORKER_CORES=1
# 每个Worker最多可以使用的内存,我的虚拟机只有2g
# 真实服务器如果有128G,可以设置为100G
export SPARK_WORKER_MEMORY=1g
# 在非HA配置中,配置了SPARK_MASTER_HOST和SPARK_MASTER_PORT
# HA就不用了,让Zookeeper来管理
# 设置zookeeper集群的地址,这个配置有点长,但一定要写到一行
export SPARK_DAEMON_JAVA_OPTS="-Dspark.deploy.recoveryMode=ZOOKEEPER -Dspark.deploy.zookeeper.url=hadoop01:2181,hadoop02:2181,hadoop03:2181 -Dspark.deploy.zookeeper.dir=/spark/ha"

(3) 修改slaves配置文件,添加Worker的主机列表

[hadoop@hadoop01 conf]$ mv slaves.template slaves
[hadoop@hadoop01 conf]$ vim slaves
# 里面的内容原来为localhost
hadoop01
hadoop02
hadoop03
hadoop04

(4) 将SPARK_HOME/sbin下的start-all.sh和stop-all.sh这两个文件重命名,例如分别改为start-spark-all.sh和stop-spark-all.sh

原因:

如果集群中也配置了HADOOP_HOME,那么在HADOOP_HOME/sbin目录下也有start-all.sh和stop-all.sh这两个文件,当你执行这两个文件时,系统不知道是操作hadoop集群还是spark集群。修改后就不会冲突了。当然,不修改的话,你需要进入它们的sbin目录下执行这些文件,这肯定就不会发生冲突了。我们配置SPARK_HOME主要也是为了执行其他spark命令方便。

[hadoop@hadoop01 conf]$ cd ../sbin
[hadoop@hadoop01 sbin]$ mv start-all.sh start-spark-all.sh
[hadoop@hadoop01 sbin]$ mv stop-all.sh stop-spark-all.sh

(5) 将spark安装包分发给其他节点

[hadoop@hadoop01 apps]$ scp -r spark-2.2.0 hadoop02:`pwd`
[hadoop@hadoop01 apps]$ scp -r spark-2.2.0 hadoop03:`pwd`
[hadoop@hadoop01 apps]$ scp -r spark-2.2.0 hadoop04:`pwd`

(6) 在集群所有节点中配置SPARK_HOME环境变量

[hadoop@hadoop01 conf]$ vim ~/.bash_profile
export SPARK_HOME=/home/hadoop/apps/spark-2.2.0
export PATH=$PATH:$SPARK_HOME/bin:$SPARK_HOME/sbin
[hadoop@hadoop01 conf]$ source ~/.bash_profile
# 其他节点也都配置...

(7) 启动Zookeeper集群

[hadoop@hadoop01 ~]$ zkServer.sh start
# 其他zookeeper节点也要启动...
# 最好也启动hadoop集群

(8) 在hadoop01节点启动master进程

[hadoop@hadoop01 conf]$ start-master.sh

(9) 在hadoop02节点启动master进程

[hadoop@hadoop02 ~]$ start-master.sh

(10) 访问WEB页面查看哪个是ALIVE MASTER

Spark HA集群搭建Spark HA集群搭建

(11) 在ALIVE MASTER节点启动全部的Worker节点

[hadoop@hadoop01 ~]$ start-slaves.sh

Spark HA集群搭建

(12) 验证集群高可用正常的进程显示:

Spark HA集群搭建

挂掉Active Master

[hadoop@hadoop01 ~]$ jps
5873 Jps
5125 QuorumPeerMain
5639 Master
5752 Worker
[hadoop@hadoop01 ~]$ kill -9 5639

hadoop01已经不能访问了:

Spark HA集群搭建

hadoop02变成了Active Master

Spark HA集群搭建

启动hadoop01的master进程

[hadoop@hadoop01 ~]$ start-master.sh

hadoop01变成了Standby Master:

Spark HA集群搭建

spark HA集群搭建成功!

到这里,我们也就讲完了《SparkHA集群搭建详细教程》的内容了。个人认为,基础知识的学习和巩固,是为了更好的将其运用到项目中,欢迎关注golang学习网公众号,带你了解更多关于zookeeper,CentOS-6.6,SparkHA,hadoop用户,spark-env.sh的知识点!

mysql中文界面设置攻略轻松搞定语言环境mysql中文界面设置攻略轻松搞定语言环境
上一篇
mysql中文界面设置攻略轻松搞定语言环境
PHP前后端分离实战:揭秘方法与技巧
下一篇
PHP前后端分离实战:揭秘方法与技巧
查看更多
最新文章
查看更多
课程推荐
  • 前端进阶之JavaScript设计模式
    前端进阶之JavaScript设计模式
    设计模式是开发人员在软件开发过程中面临一般问题时的解决方案,代表了最佳的实践。本课程的主打内容包括JS常见设计模式以及具体应用场景,打造一站式知识长龙服务,适合有JS基础的同学学习。
    542次学习
  • GO语言核心编程课程
    GO语言核心编程课程
    本课程采用真实案例,全面具体可落地,从理论到实践,一步一步将GO核心编程技术、编程思想、底层实现融会贯通,使学习者贴近时代脉搏,做IT互联网时代的弄潮儿。
    511次学习
  • 简单聊聊mysql8与网络通信
    简单聊聊mysql8与网络通信
    如有问题加微信:Le-studyg;在课程中,我们将首先介绍MySQL8的新特性,包括性能优化、安全增强、新数据类型等,帮助学生快速熟悉MySQL8的最新功能。接着,我们将深入解析MySQL的网络通信机制,包括协议、连接管理、数据传输等,让
    498次学习
  • JavaScript正则表达式基础与实战
    JavaScript正则表达式基础与实战
    在任何一门编程语言中,正则表达式,都是一项重要的知识,它提供了高效的字符串匹配与捕获机制,可以极大的简化程序设计。
    487次学习
  • 从零制作响应式网站—Grid布局
    从零制作响应式网站—Grid布局
    本系列教程将展示从零制作一个假想的网络科技公司官网,分为导航,轮播,关于我们,成功案例,服务流程,团队介绍,数据部分,公司动态,底部信息等内容区块。网站整体采用CSSGrid布局,支持响应式,有流畅过渡和展现动画。
    484次学习
查看更多
AI推荐
  • AI边界平台:智能对话、写作、画图,一站式解决方案
    边界AI平台
    探索AI边界平台,领先的智能AI对话、写作与画图生成工具。高效便捷,满足多样化需求。立即体验!
    423次使用
  • 讯飞AI大学堂免费AI认证证书:大模型工程师认证,提升您的职场竞争力
    免费AI认证证书
    科大讯飞AI大学堂推出免费大模型工程师认证,助力您掌握AI技能,提升职场竞争力。体系化学习,实战项目,权威认证,助您成为企业级大模型应用人才。
    427次使用
  • 茅茅虫AIGC检测:精准识别AI生成内容,保障学术诚信
    茅茅虫AIGC检测
    茅茅虫AIGC检测,湖南茅茅虫科技有限公司倾力打造,运用NLP技术精准识别AI生成文本,提供论文、专著等学术文本的AIGC检测服务。支持多种格式,生成可视化报告,保障您的学术诚信和内容质量。
    565次使用
  • 赛林匹克平台:科技赛事聚合,赋能AI、算力、量子计算创新
    赛林匹克平台(Challympics)
    探索赛林匹克平台Challympics,一个聚焦人工智能、算力算法、量子计算等前沿技术的赛事聚合平台。连接产学研用,助力科技创新与产业升级。
    668次使用
  • SEO  笔格AIPPT:AI智能PPT制作,免费生成,高效演示
    笔格AIPPT
    SEO 笔格AIPPT是135编辑器推出的AI智能PPT制作平台,依托DeepSeek大模型,实现智能大纲生成、一键PPT生成、AI文字优化、图像生成等功能。免费试用,提升PPT制作效率,适用于商务演示、教育培训等多种场景。
    577次使用
微信登录更方便
  • 密码登录
  • 注册账号
登录即同意 用户协议隐私政策
返回登录
  • 重置密码