SparkHA集群搭建详细教程
本文详细介绍了在CentOS-6.6环境下搭建Spark HA集群的完整攻略。使用四个虚拟机(hadoop01至hadoop04)并以hadoop用户身份进行操作。文章涵盖了从环境准备、Zookeeper集群配置、Spark安装包的下载与解压,到详细的配置步骤,包括修改spark-env.sh和slaves文件,启动Zookeeper和Spark集群,以及验证高可用性的具体操作。通过这些步骤,成功搭建了一个高可用的Spark集群。
环境准备
我使用的是CentOS-6.6版本的4个虚拟机,主机名为hadoop01、hadoop02、hadoop03、hadoop04。集群将由hadoop用户搭建(在生产环境中,root用户通常不可随意使用)。关于虚拟机的安装,可以参考以下两篇文章:在Windows中安装一台Linux虚拟机,以及通过已有的虚拟机克隆四台虚拟机。Zookeeper集群参考zookeeper-3.4.10的安装配置。spark安装包的下载地址为:https://mirrors.aliyun.com/apache/spark/,我使用的是spark-2.2.0-bin-hadoop2.7.tgz,需根据自己机器中的hadoop版本选择对应的spark版本。
- 集群规划
- 具体步骤
(1) 将安装包上传到hadoop01服务器并解压
[hadoop@hadoop01 soft]$ tar zxvf spark-2.2.0-bin-hadoop2.7.tgz -C /home/hadoop/apps/ # 解压后如果觉得安装目录名称太长,可以修改一下 [hadoop@hadoop01 soft]$ cd /home/hadoop/apps/ [hadoop@hadoop01 apps]$ mv spark-2.2.0-bin-hadoop2.7 spark-2.2.0
(2) 修改spark-env.sh配置文件
# 将SPARK_HOME/conf/下的spark-env.sh.template文件复制为spark-env.sh [hadoop@hadoop01 apps]$ cd spark-2.2.0/conf [hadoop@hadoop01 conf]$ mv spark-env.sh.template spark-env.sh # 修改spark-env.sh配置文件,添加如下内容 [hadoop@hadoop01 conf]$ vim spark-env.sh # 配置JAVA_HOME,一般来说,不配置也可以,但可能会出现问题,还是配上吧 export JAVA_HOME=/usr/local/java/jdk1.8.0_73 # 一般来说,spark任务有很大可能性需要从HDFS上读取文件,所以配置上 # 如果你的spark只读取本地文件,且不需yarn管理,不用配置 export HADOOP_CONF_DIR=/home/hadoop/apps/hadoop-2.7.4/etc/hadoop # 每个Worker最多可以使用的cpu core的个数,我的虚拟机只有一个... # 真实服务器如果有32个,可以设置为32个 export SPARK_WORKER_CORES=1 # 每个Worker最多可以使用的内存,我的虚拟机只有2g # 真实服务器如果有128G,可以设置为100G export SPARK_WORKER_MEMORY=1g # 在非HA配置中,配置了SPARK_MASTER_HOST和SPARK_MASTER_PORT # HA就不用了,让Zookeeper来管理 # 设置zookeeper集群的地址,这个配置有点长,但一定要写到一行 export SPARK_DAEMON_JAVA_OPTS="-Dspark.deploy.recoveryMode=ZOOKEEPER -Dspark.deploy.zookeeper.url=hadoop01:2181,hadoop02:2181,hadoop03:2181 -Dspark.deploy.zookeeper.dir=/spark/ha"
(3) 修改slaves配置文件,添加Worker的主机列表
[hadoop@hadoop01 conf]$ mv slaves.template slaves [hadoop@hadoop01 conf]$ vim slaves # 里面的内容原来为localhost hadoop01 hadoop02 hadoop03 hadoop04
(4) 将SPARK_HOME/sbin下的start-all.sh和stop-all.sh这两个文件重命名,例如分别改为start-spark-all.sh和stop-spark-all.sh
原因:
如果集群中也配置了HADOOP_HOME,那么在HADOOP_HOME/sbin目录下也有start-all.sh和stop-all.sh这两个文件,当你执行这两个文件时,系统不知道是操作hadoop集群还是spark集群。修改后就不会冲突了。当然,不修改的话,你需要进入它们的sbin目录下执行这些文件,这肯定就不会发生冲突了。我们配置SPARK_HOME主要也是为了执行其他spark命令方便。
[hadoop@hadoop01 conf]$ cd ../sbin [hadoop@hadoop01 sbin]$ mv start-all.sh start-spark-all.sh [hadoop@hadoop01 sbin]$ mv stop-all.sh stop-spark-all.sh
(5) 将spark安装包分发给其他节点
[hadoop@hadoop01 apps]$ scp -r spark-2.2.0 hadoop02:`pwd` [hadoop@hadoop01 apps]$ scp -r spark-2.2.0 hadoop03:`pwd` [hadoop@hadoop01 apps]$ scp -r spark-2.2.0 hadoop04:`pwd`
(6) 在集群所有节点中配置SPARK_HOME环境变量
[hadoop@hadoop01 conf]$ vim ~/.bash_profile export SPARK_HOME=/home/hadoop/apps/spark-2.2.0 export PATH=$PATH:$SPARK_HOME/bin:$SPARK_HOME/sbin [hadoop@hadoop01 conf]$ source ~/.bash_profile # 其他节点也都配置...
(7) 启动Zookeeper集群
[hadoop@hadoop01 ~]$ zkServer.sh start # 其他zookeeper节点也要启动... # 最好也启动hadoop集群
(8) 在hadoop01节点启动master进程
[hadoop@hadoop01 conf]$ start-master.sh
(9) 在hadoop02节点启动master进程
[hadoop@hadoop02 ~]$ start-master.sh
(10) 访问WEB页面查看哪个是ALIVE MASTER
(11) 在ALIVE MASTER节点启动全部的Worker节点
[hadoop@hadoop01 ~]$ start-slaves.sh
(12) 验证集群高可用正常的进程显示:
挂掉Active Master
[hadoop@hadoop01 ~]$ jps 5873 Jps 5125 QuorumPeerMain 5639 Master 5752 Worker [hadoop@hadoop01 ~]$ kill -9 5639
hadoop01已经不能访问了:
hadoop02变成了Active Master
启动hadoop01的master进程
[hadoop@hadoop01 ~]$ start-master.sh
hadoop01变成了Standby Master:
spark HA集群搭建成功!
到这里,我们也就讲完了《SparkHA集群搭建详细教程》的内容了。个人认为,基础知识的学习和巩固,是为了更好的将其运用到项目中,欢迎关注golang学习网公众号,带你了解更多关于zookeeper,CentOS-6.6,SparkHA,hadoop用户,spark-env.sh的知识点!

- 上一篇
- mysql中文界面设置攻略轻松搞定语言环境

- 下一篇
- PHP前后端分离实战:揭秘方法与技巧
-
- 文章 · 软件教程 | 2小时前 | 键盘快捷键 第三方软件 浏览器扩展 SnippingTool
- win7没截图工具?教你轻松解决
- 262浏览 收藏
-
- 文章 · 软件教程 | 2小时前 | 服务器 tomcat 字体 图形验证码 TimesNewRoman
- Java图片验证码乱码问题解决攻略
- 231浏览 收藏
-
- 文章 · 软件教程 | 3小时前 | 键盘快捷键 第三方软件 浏览器扩展 SnippingTool
- win7截图工具丢了?快速找回方法
- 273浏览 收藏
-
- 文章 · 软件教程 | 3小时前 |
- 开机英文字母错?电脑无法启动解决攻略
- 363浏览 收藏
-
- 文章 · 软件教程 | 3小时前 |
- 电脑开机失败原因分析与解决攻略
- 173浏览 收藏
-
- 文章 · 软件教程 | 3小时前 |
- Win10激活码3个位置轻松找到
- 404浏览 收藏
-
- 文章 · 软件教程 | 4小时前 |
- win10全屏截图保存路径及查询方法
- 273浏览 收藏
-
- 文章 · 软件教程 | 4小时前 |
- 电脑无声原因分析及解决方案
- 469浏览 收藏
-
- 文章 · 软件教程 | 4小时前 |
- win11安装失败?教你一招轻松解决
- 437浏览 收藏
-
- 文章 · 软件教程 | 4小时前 | idea TODO View ToolWindows
- 快速查找项目中TODO注释的技巧
- 398浏览 收藏
-
- 文章 · 软件教程 | 4小时前 | JavaScript 微软 PowerShell VBScript 按需功能
- 微软2024下半年将逐步淘汰VBScript
- 332浏览 收藏
-
- 前端进阶之JavaScript设计模式
- 设计模式是开发人员在软件开发过程中面临一般问题时的解决方案,代表了最佳的实践。本课程的主打内容包括JS常见设计模式以及具体应用场景,打造一站式知识长龙服务,适合有JS基础的同学学习。
- 542次学习
-
- GO语言核心编程课程
- 本课程采用真实案例,全面具体可落地,从理论到实践,一步一步将GO核心编程技术、编程思想、底层实现融会贯通,使学习者贴近时代脉搏,做IT互联网时代的弄潮儿。
- 508次学习
-
- 简单聊聊mysql8与网络通信
- 如有问题加微信:Le-studyg;在课程中,我们将首先介绍MySQL8的新特性,包括性能优化、安全增强、新数据类型等,帮助学生快速熟悉MySQL8的最新功能。接着,我们将深入解析MySQL的网络通信机制,包括协议、连接管理、数据传输等,让
- 497次学习
-
- JavaScript正则表达式基础与实战
- 在任何一门编程语言中,正则表达式,都是一项重要的知识,它提供了高效的字符串匹配与捕获机制,可以极大的简化程序设计。
- 487次学习
-
- 从零制作响应式网站—Grid布局
- 本系列教程将展示从零制作一个假想的网络科技公司官网,分为导航,轮播,关于我们,成功案例,服务流程,团队介绍,数据部分,公司动态,底部信息等内容区块。网站整体采用CSSGrid布局,支持响应式,有流畅过渡和展现动画。
- 484次学习
-
- 魔匠AI
- SEO摘要魔匠AI专注于高质量AI学术写作,已稳定运行6年。提供无限改稿、选题优化、大纲生成、多语言支持、真实参考文献、数据图表生成、查重降重等全流程服务,确保论文质量与隐私安全。适用于专科、本科、硕士学生及研究者,满足多语言学术需求。
- 58次使用
-
- PPTFake答辩PPT生成器
- PPTFake答辩PPT生成器,专为答辩准备设计,极致高效生成PPT与自述稿。智能解析内容,提供多样模板,数据可视化,贴心配套服务,灵活自主编辑,降低制作门槛,适用于各类答辩场景。
- 57次使用
-
- Lovart
- SEO摘要探索Lovart AI,这款专注于设计领域的AI智能体,通过多模态模型集成和智能任务拆解,实现全链路设计自动化。无论是品牌全案设计、广告与视频制作,还是文创内容创作,Lovart AI都能满足您的需求,提升设计效率,降低成本。
- 81次使用
-
- 美图AI抠图
- 美图AI抠图,依托CVPR 2024竞赛亚军技术,提供顶尖的图像处理解决方案。适用于证件照、商品、毛发等多场景,支持批量处理,3秒出图,零PS基础也能轻松操作,满足个人与商业需求。
- 65次使用
-
- PetGPT
- SEO摘要PetGPT 是一款基于 Python 和 PyQt 开发的智能桌面宠物程序,集成了 OpenAI 的 GPT 模型,提供上下文感知对话和主动聊天功能。用户可高度自定义宠物的外观和行为,支持插件热更新和二次开发。适用于需要陪伴和效率辅助的办公族、学生及 AI 技术爱好者。
- 75次使用
-
- pe系统下载好如何重装的具体教程
- 2023-05-01 501浏览
-
- qq游戏大厅怎么开启蓝钻提醒功能-qq游戏大厅开启蓝钻提醒功能教程
- 2023-04-29 501浏览
-
- 吉吉影音怎样播放网络视频 吉吉影音播放网络视频的操作步骤
- 2023-04-09 501浏览
-
- 腾讯会议怎么使用电脑音频 腾讯会议播放电脑音频的方法
- 2023-04-04 501浏览
-
- PPT制作图片滚动效果的简单方法
- 2023-04-26 501浏览