当前位置:首页 > 文章列表 > 数据库 > MySQL > hadoop伪分布式安装记录

hadoop伪分布式安装记录

来源:SegmentFault 2023-02-24 17:51:51 0浏览 收藏

亲爱的编程学习爱好者,如果你点开了这篇文章,说明你对《hadoop伪分布式安装记录》很感兴趣。本篇文章就来给大家详细解析一下,主要介绍一下MySQL、Java、hadoop,希望所有认真读完的童鞋们,都有实质性的提高。

引语:

    最近想接触一些大数据相关的技术,所以有了这篇文章,其实就是记录一下自己学习hadoop的过程,如果文章中有啥写的不对的地方,还望指正(有java开发经验,但是是大数据小白一只,各位大神轻喷.)
我先是在网上搜索了一波大数据应该要学些什么技术,基本上不约而同的都是指向了hadoop.
    摘自维基百科:Apache Hadoop链接地址.看完维基百科描述,我们大概知道了hadoop是一个分布式的大数据框架,在深入一些我们会知道
它是由很多个组件组成的(比如核心的HDFS,Hadoop Distributed File System,Mapreduce框架,还有很多Hive,HBase等等)。所以hadoop其实也是代指hadoop的一套的生态系统。光说不练假把式,好的我们来看看怎么安装,搭建hadoop的环境呢?

安装步骤:

    这里其实有个前提,默认各位大佬的机器上已经安装好了linux和java环境。如果没有可以动动您灵活的手指,在搜索栏敲下“如何安装linux/java环境”,不开玩笑了,这个比较常见。
hadoop安装官网上说是有三种方式:
1.单机模式安装
2.伪分布式安装
3.全分布式安装(真.分布式)
我这里使用的是伪分布式,有人要问为啥不用真.分布式呢?
第一是初学者学会了伪分布式,基本上全分布式也是不会有大问题的,只是机器多了;
第二是因为贫穷,


在云服务器上搭建的,全分布式要搞好几台。2333~ 开个玩笑啦,主要是懒~

1.下载hadoop

去官网下载就可以了,官网链接


点击source,然后在跳转的页面中下载hadoop-3.1.2-src.tar.gz。

tar -zxvf hadoop-3.1.2-src.tar.gz

然后进入到 hadoop-3.1.2中,目录是这样


bin和sbin是可执行脚本的目录,etc是放hadoop配置文件的目录。

2.配置hadoop

(1).首先先配置hadoop的环境文件hadoop-env.sh,进入到hadoop-3.1.2/etc/hadoop目录下,编辑 hadoop-env.sh文件
然后搜索JAVA_HOME,会发现两处,但是可以通过阅读英文注释得知是哪一个

# Technically, the only required environment variable is JAVA_HOME.
# All others are optional.  However, the defaults are probably not
# preferred.  Many sites configure these options outside of Hadoop,
# such as in /etc/profile.d

# The java implementation to use. By default, this environment
# variable is REQUIRED on ALL platforms except OS X!

在这下面添加export JAVA_HOME=“机器上的jdk地址”

在环境变量中添加hadoop的配置,vim /etc/profile,添加hadoop_home

export HADOOP_HOME=/home/hadoop/hadoop-3.1.2
export PATH=$PATH:$JAVA_HOME/bin:$HADOOP_HOME/sbin:$HADOOP_HOME/bin

(2).在配置hadoop的核心配置文件core-site.xml,这里配置的是hdfs的NameNode地址和数据存储目录路径
里面添加:

这个是hdfs的地址
fs.defaultFShdfs://wxwwt-hadoop:9000
hadoop存储数据路径
hadoop.tmp.dir/home/hadoop/hadoop-3.1.2/data

wxwwt-hadoop这个是自己随便取得名字,记得在etc/hosts中配置一下,映射到本地127.0.0.1

(3).配置mapred-site.xml,从名字上就能看出来是和MapReduce相关的。指定一下调度系统的配置

mapreduce.framework.nameyarn

(4).配置yarn-site.xml


指定ResouceManager的地址
    yarn.resourcemanager.hostnamewxwwt-hadoop
指定MapReduce的方式
    yarn.nodemanager.aux-servicesmapreduce_shuffle

到这里已经上hadoop的配置文件是弄完了

3.格式化文件系统

hdfs namenode -format

如果能看到类似下面的信息,说明格式化成功了

Storage directory /home/hadoop/hadoop-3.1.2/data/dfs/name has been successfully formatted.

4.运行hadoop,start-dfs.sh

不过在运行之前,先得说一句如果之前一直使用的root用户的话,这里运行会报错。因为会因为是root用户,hadoop不建议使用root用户。会报出

ERROR: Attempting to operate on hdfs namenode as root
ERROR: but there is no HDFS_NAMENODE_USER defined. Aborting operation.
Starting datanodes
ERROR: Attempting to operate on hdfs datanode as root
ERROR: but there is no HDFS_DATANODE_USER defined. Aborting operation.

类似的错误。
(1).如果想用root用户继续执行的话,得在启动脚本start-dfs.sh中添加

HDFS_DATANODE_USER=root
HADOOP_SECURE_DN_USER=hdfs
HDFS_NAMENODE_USER=root
HDFS_SECONDARYNAMENODE_USER=root

并且要设置root的免密登录。
步骤:

$ ssh-keygen -t rsa -P '' -f ~/.ssh/id_rsa
$ cat ~/.ssh/id_rsa.pub >> ~/.ssh/authorized_keys
$ chmod 0600 ~/.ssh/authorized_keys

(2).如果要使用其他用户的话,先得将hadoop的目录权限给这个用户添加下
比如:我要使用wxwwt用户来操作

useradd wxwwt
passwd wxwwt
chown -R wxwwt:wxwwt /home/hadoop-3.1.2
su wxwwt

设置用用户名密码,将hadoop目录权限给wxwwt,然后切换用户。再设置免密登录

ssh-keygen -t rsa
ssh-copy-id localhost

然后在运行hadoop。

start-hdfs.sh执行完,看下jps如果出现了NameNode,SecondaryNameNode,DataNode的进程就是HDFS启动成功了

5.启动yarn,start-yarn.sh。

启动完后再看下jps,如图出现了ResourceManager,NodeManager就大功告成。

总结:

1.hadoop的一些简单概念,它也是一个大的生态系统;
2.hadoop安装分三种模式,单机,伪分布式,全分布式;文中介绍的是伪分布式,就是在一台机器上弄的;
3.安装中主要就是按教程添加配置,但是其中还是有坑的,记住启动的时候root的坑,和免密登录。

参考资料:

1.https://hadoop.apache.org/doc...(官网伪分布式教程)
2.https://blog.csdn.net/solarac...(免密登录教程)
3.https://blog.csdn.net/whq1278...
4.https://www.ibm.com/developer...(yarn介绍)

好了,本文到此结束,带大家了解了《hadoop伪分布式安装记录》,希望本文对你有所帮助!关注golang学习网公众号,给大家分享更多数据库知识!

版本声明
本文转载于:SegmentFault 如有侵犯,请联系study_golang@163.com删除
DBASK问答集萃第五期DBASK问答集萃第五期
上一篇
DBASK问答集萃第五期
重新认识Mysql之冗余字段的利与弊
下一篇
重新认识Mysql之冗余字段的利与弊
查看更多
最新文章
查看更多
课程推荐
  • 前端进阶之JavaScript设计模式
    前端进阶之JavaScript设计模式
    设计模式是开发人员在软件开发过程中面临一般问题时的解决方案,代表了最佳的实践。本课程的主打内容包括JS常见设计模式以及具体应用场景,打造一站式知识长龙服务,适合有JS基础的同学学习。
    542次学习
  • GO语言核心编程课程
    GO语言核心编程课程
    本课程采用真实案例,全面具体可落地,从理论到实践,一步一步将GO核心编程技术、编程思想、底层实现融会贯通,使学习者贴近时代脉搏,做IT互联网时代的弄潮儿。
    508次学习
  • 简单聊聊mysql8与网络通信
    简单聊聊mysql8与网络通信
    如有问题加微信:Le-studyg;在课程中,我们将首先介绍MySQL8的新特性,包括性能优化、安全增强、新数据类型等,帮助学生快速熟悉MySQL8的最新功能。接着,我们将深入解析MySQL的网络通信机制,包括协议、连接管理、数据传输等,让
    497次学习
  • JavaScript正则表达式基础与实战
    JavaScript正则表达式基础与实战
    在任何一门编程语言中,正则表达式,都是一项重要的知识,它提供了高效的字符串匹配与捕获机制,可以极大的简化程序设计。
    487次学习
  • 从零制作响应式网站—Grid布局
    从零制作响应式网站—Grid布局
    本系列教程将展示从零制作一个假想的网络科技公司官网,分为导航,轮播,关于我们,成功案例,服务流程,团队介绍,数据部分,公司动态,底部信息等内容区块。网站整体采用CSSGrid布局,支持响应式,有流畅过渡和展现动画。
    484次学习
查看更多
AI推荐
  • 笔灵AI生成答辩PPT:高效制作学术与职场PPT的利器
    笔灵AI生成答辩PPT
    探索笔灵AI生成答辩PPT的强大功能,快速制作高质量答辩PPT。精准内容提取、多样模板匹配、数据可视化、配套自述稿生成,让您的学术和职场展示更加专业与高效。
    15次使用
  • 知网AIGC检测服务系统:精准识别学术文本中的AI生成内容
    知网AIGC检测服务系统
    知网AIGC检测服务系统,专注于检测学术文本中的疑似AI生成内容。依托知网海量高质量文献资源,结合先进的“知识增强AIGC检测技术”,系统能够从语言模式和语义逻辑两方面精准识别AI生成内容,适用于学术研究、教育和企业领域,确保文本的真实性和原创性。
    24次使用
  • AIGC检测服务:AIbiye助力确保论文原创性
    AIGC检测-Aibiye
    AIbiye官网推出的AIGC检测服务,专注于检测ChatGPT、Gemini、Claude等AIGC工具生成的文本,帮助用户确保论文的原创性和学术规范。支持txt和doc(x)格式,检测范围为论文正文,提供高准确性和便捷的用户体验。
    30次使用
  • 易笔AI论文平台:快速生成高质量学术论文的利器
    易笔AI论文
    易笔AI论文平台提供自动写作、格式校对、查重检测等功能,支持多种学术领域的论文生成。价格优惠,界面友好,操作简便,适用于学术研究者、学生及论文辅导机构。
    42次使用
  • 笔启AI论文写作平台:多类型论文生成与多语言支持
    笔启AI论文写作平台
    笔启AI论文写作平台提供多类型论文生成服务,支持多语言写作,满足学术研究者、学生和职场人士的需求。平台采用AI 4.0版本,确保论文质量和原创性,并提供查重保障和隐私保护。
    35次使用
微信登录更方便
  • 密码登录
  • 注册账号
登录即同意 用户协议隐私政策
返回登录
  • 重置密码