11. 安装Hive及MySQL
亲爱的编程学习爱好者,如果你点开了这篇文章,说明你对《11. 安装Hive及MySQL》很感兴趣。本篇文章就来给大家详细解析一下,主要介绍一下MySQL、hive,希望所有认真读完的童鞋们,都有实质性的提高。
Hive是基于Hadoop的一个数据仓库工具,用来进行数据提取、转化、加载,这是一种可以存储、查询和分析存储在Hadoop中的大规模数据的机制。hive数据仓库工具能将结构化的数据文件映射为一张数据库表,并提供SQL查询功能,能将SQL语句转变成MapReduce任务来执行。
集群规划
hadoop151 | hadoop152 | hadoop153 | |
---|---|---|---|
hive&mysql | √ |
安装MySQL
-
切换到root用户下,卸载本机自带的数据库。
[root@hadoop151 software]$ rpm -qa | grep mariadb [root@hadoop151 software]$ yum -y remove mariadb-libs-5.5.60-1.el7_5.x86_64
-
安装MySQL
[root@hadoop151 mysql-libs]$ rpm -ivh MySQL-server-5.6.24-1.el6.x86_64.rpm [root@hadoop151 mysql-libs]$ cat /root/.mysql_secret # 查看初始密码 [root@hadoop102 mysql-libs]$ service mysql start # 启动MySQL服务
-
登录MySQL,设置密码
[root@hadoop151 mysql-libs]$ mysql -uroot -p密码 mysql> set password=password('000000'); # 设置密码为六个0
-
配置MySQL远程登陆
mysql> use mysql; mysql> show tables; mysql> desc user; mysql> select User, Host, Password from user; mysql> update user set host='%' where host='localhost'; /* 修改user表,把Host表内容修改为% */ mysql> delete from user where Host='hadoop151'; /* 删除root用户的其他host */ mysql> delete from user where Host='127.0.0.1'; mysql> delete from user where Host='::1'; mysql> flush privileges;
-
设置MySQL编码为UTF-8。
修改my.cnf文件(这个文件可能在/etc目录下,也可能在/usr目录下),在[mysqld]这一栏中添加如下内容:init_connect='SET collation_connection = utf8_unicode_ci' init_connect='SET NAMES utf8' character-set-server=utf8 collation-server=utf8_unicode_ci skip-character-set-client-handshake
-
重启MySQL服务,查看编码。
[root@hadoop151 usr]$ service mysql restart [root@hadoop151 usr]$ mysql -uroot -p000000 mysql > show variables like '%char%' +--------------------------+----------------------------+ | Variable_name | Value | +--------------------------+----------------------------+ | character_set_client | utf8 | | character_set_connection | utf8 | | character_set_database | utf8 | | character_set_filesystem | binary | | character_set_results | utf8 | | character_set_server | utf8 | | character_set_system | utf8 | | character_sets_dir | /usr/share/mysql/charsets/ | +--------------------------+----------------------------+
安装Hive
-
解压并重命名
[hadoop@hadoop151 software]$ tar -zxvf apache-hive-1.2.1-bin.tar.gz -C /opt/module/ [hadoop@hadoop151 module]$ mv apache-hive-1.2.1-bin/ hive
-
将MySQL驱动拷贝到“hive/lib”目录下。
[hadoop@hadoop151 mysql-connector-java-5.1.27]$ cp mysql-connector-java-5.1.27-bin.jar /opt/module/hive/lib/
-
在“hive/conf”目录下重命名“hive-env.sh.template”并修改其中内容。
[hadoop@hadoop151 conf]$ mv hive-env.sh.template hive-env.sh [hadoop@hadoop151 conf]$ vim hive-env.sh HADOOP_HOME=/opt/module/hadoop export HIVE_CONF_DIR=/opt/module/hive/conf
-
在“hive/conf”目录下重命名“hive-log4j.properties.template”文件
[hadoop@hadoop151 conf]$ mv hive-log4j.properties.template hive-log4j.properties [hadoop@hadoop151 conf]$ vim hive-log4j.properties hive.log.dir=/opt/module/hive/logs
-
在“hive/conf”目录下新建hive-site.xml文件,配置Metastore到MySQL。
[hadoop@hadoop151 conf]$ vim hive-site.xml <?xml version="1.0"?><?xml-stylesheet type="text/xsl" href="configuration.xsl"?><configuration><property><name>javax.jdo.option.ConnectionURL</name><value>jdbc:mysql://hadoop151:3306/metastore?createDatabaseIfNotExist=true</value><description>JDBC connect string for a JDBC metastore</description></property><property><name>javax.jdo.option.ConnectionDriverName</name><value>com.mysql.jdbc.Driver</value><description>Driver class name for a JDBC metastore</description></property><property><name>javax.jdo.option.ConnectionUserName</name><value>root</value><description>username to use against metastore database</description></property><property><name>javax.jdo.option.ConnectionPassword</name><value>000000</value><description>password to use against metastore database</description></property><property><name>hive.cli.print.header</name><value>true</value></property><property><name>hive.cli.print.current.db</name><value>true</value></property><property><name>hive.metastore.schema.verification</name><value>false</value></property></configuration>
-
在“hive/bin”目录下初始化MySQL和Hive
[hadoop@hadoop151 bin]$ ./schematool -initSchema -dbType mysql
-
进入MySQL,修改“metastore”数据库。
mysql> use metastore; /* 修改表字段注解和表注解 */ alter table COLUMNS_V2 modify column COMMENT varchar(256) character set utf8; alter table TABLE_PARAMS modify column PARAM_VALUE varchar(4000) character set utf8; /* 修改分区字段注解 */ alter table PARTITION_PARAMS modify column PARAM_VALUE varchar(4000) character set utf8; alter table PARTITION_KEYS modify column PKEY_COMMENT varchar(4000) character set utf8; /* 修改索引注解 */ alter table INDEX_PARAMS modify column PARAM_VALUE varchar(4000) character set utf8;
配置Tez作为Hive的计算引擎
Tez是Apache开源的支持DAG作业的计算框架,它直接源于MapReduce框架,核心思想是将Map和Reduce两个操作进一步拆分,即Map被拆分成Input、Processor、Sort、Merge和Output, Reduce被拆分成Input、Shuffle、Sort、Merge、Processor和Output等,这样,这些分解后的元操作可以任意灵活组合,产生新的操作,这些操作经过一些控制程序组装后,可形成一个大的DAG作业。
-
解压并重命名。
[hadoop@hadoop151 software]$ tar -zxvf apache-tez-0.9.1-bin.tar.gz -C /opt/module/ [hadoop@hadoop151 module]$ mv apache-tez-0.9.1-bin/ tez-0.9.1
-
在“hive-env.sh”文件中添加tez环境变量配置和依赖包环境变量配置。
export TEZ_HOME=/opt/module/tez-0.9.1 export TEZ_JARS="" for jar in `ls $TEZ_HOME |grep jar`; do export TEZ_JARS=$TEZ_JARS:$TEZ_HOME/$jar done for jar in `ls $TEZ_HOME/lib`; do export TEZ_JARS=$TEZ_JARS:$TEZ_HOME/lib/$jar done export HIVE_AUX_JARS_PATH=/opt/module/hadoop/share/hadoop/common/hadoop-lzo-0.4.20.jar$TEZ_JARS
-
在“hive-site.xml”文件中添加如下配置,更改hive计算引擎。
<property><name>hive.execution.engine</name><value>tez</value></property>
-
在Hive的“/opt/module/hive/conf”下面创建一个tez-site.xml文件。
[hadoop@hadoop151 conf]$ vim tez-site.xml <?xml version="1.0" encoding="UTF-8"?><?xml-stylesheet type="text/xsl" href="configuration.xsl"?><configuration><property><name>tez.lib.uris</name><value>${fs.defaultFS}/tez/tez-0.9.1,${fs.defaultFS}/tez/tez-0.9.1/lib</value></property><property><name>tez.lib.uris.classpath</name><value>${fs.defaultFS}/tez/tez-0.9.1,${fs.defaultFS}/tez/tez-0.9.1/lib</value></property><property><name>tez.use.cluster.hadoop-libs</name><value>true</value></property><property><name>tez.history.logging.service.class</name><value>org.apache.tez.dag.history.logging.ats.ATSHistoryLoggingService</value></property></configuration>
-
将“/opt/module/tez-0.9.1”上传到HDFS的/tez路径。
[hadoop@hadoop151 conf]$ hadoop fs -mkdir /tez [hadoop@hadoop151 conf]$ hadoop fs -put /opt/module/tez-0.9.1/ /tez
-
修改“hadoop/etc/hadoop”目录下的yarn-site.xml文件,避免遇到运行Tez时检查到用过多内存而被NodeManager杀死进程问题。 修改完yarn-site.xml文件后分发到各集群上 。
<property><name>yarn.nodemanager.vmem-check-enabled</name><value>false</value></property>
-
启动hive,在hive中建库建表插入数据测试(记得要启动hadoop集群)。
[hadoop@hadoop151 bin]$ ./hive
以上就是《11. 安装Hive及MySQL》的详细内容,更多关于mysql的资料请关注golang学习网公众号!

- 上一篇
- 为什么mysql索引选择b+树作为底层存储结构?

- 下一篇
- MySql高级(一)
-
- 幽默的芹菜
- 很棒,一直没懂这个问题,但其实工作中常常有遇到...不过今天到这,看完之后很有帮助,总算是懂了,感谢up主分享技术贴!
- 2023-01-21 11:44:03
-
- 柔弱的水杯
- 这篇技术文章出现的刚刚好,很详细,写的不错,已加入收藏夹了,关注大佬了!希望大佬能多写数据库相关的文章。
- 2023-01-13 14:52:25
-
- 数据库 · MySQL | 19小时前 |
- MySQL中AS别名用法详解
- 320浏览 收藏
-
- 数据库 · MySQL | 20小时前 |
- MySQL创建带主键的表实例
- 247浏览 收藏
-
- 数据库 · MySQL | 1天前 |
- 主外键关系怎么建立?
- 149浏览 收藏
-
- 数据库 · MySQL | 1天前 |
- MySQL中IF函数使用详解
- 392浏览 收藏
-
- 数据库 · MySQL | 2天前 |
- MySQL中IF函数使用详解
- 268浏览 收藏
-
- 数据库 · MySQL | 2天前 |
- MySQL入门:核心概念与操作全解析
- 162浏览 收藏
-
- 数据库 · MySQL | 2天前 |
- MySQL事务是什么?如何保证数据一致性?
- 349浏览 收藏
-
- 数据库 · MySQL | 3天前 |
- MySQL数据分片实现方法及常见方案解析
- 363浏览 收藏
-
- 数据库 · MySQL | 3天前 |
- MySQL基础:增删改查全教程
- 345浏览 收藏
-
- 数据库 · MySQL | 4天前 |
- 5种方法检测电脑是否安装MySQL
- 275浏览 收藏
-
- 数据库 · MySQL | 5天前 |
- 主键与唯一键区别详解,如何正确选择主键
- 271浏览 收藏
-
- 数据库 · MySQL | 5天前 |
- MySQL创建数据库的详细步骤教程
- 262浏览 收藏
-
- 前端进阶之JavaScript设计模式
- 设计模式是开发人员在软件开发过程中面临一般问题时的解决方案,代表了最佳的实践。本课程的主打内容包括JS常见设计模式以及具体应用场景,打造一站式知识长龙服务,适合有JS基础的同学学习。
- 543次学习
-
- GO语言核心编程课程
- 本课程采用真实案例,全面具体可落地,从理论到实践,一步一步将GO核心编程技术、编程思想、底层实现融会贯通,使学习者贴近时代脉搏,做IT互联网时代的弄潮儿。
- 514次学习
-
- 简单聊聊mysql8与网络通信
- 如有问题加微信:Le-studyg;在课程中,我们将首先介绍MySQL8的新特性,包括性能优化、安全增强、新数据类型等,帮助学生快速熟悉MySQL8的最新功能。接着,我们将深入解析MySQL的网络通信机制,包括协议、连接管理、数据传输等,让
- 499次学习
-
- JavaScript正则表达式基础与实战
- 在任何一门编程语言中,正则表达式,都是一项重要的知识,它提供了高效的字符串匹配与捕获机制,可以极大的简化程序设计。
- 487次学习
-
- 从零制作响应式网站—Grid布局
- 本系列教程将展示从零制作一个假想的网络科技公司官网,分为导航,轮播,关于我们,成功案例,服务流程,团队介绍,数据部分,公司动态,底部信息等内容区块。网站整体采用CSSGrid布局,支持响应式,有流畅过渡和展现动画。
- 484次学习
-
- AI Mermaid流程图
- SEO AI Mermaid 流程图工具:基于 Mermaid 语法,AI 辅助,自然语言生成流程图,提升可视化创作效率,适用于开发者、产品经理、教育工作者。
- 592次使用
-
- 搜获客【笔记生成器】
- 搜获客笔记生成器,国内首个聚焦小红书医美垂类的AI文案工具。1500万爆款文案库,行业专属算法,助您高效创作合规、引流的医美笔记,提升运营效率,引爆小红书流量!
- 595次使用
-
- iTerms
- iTerms是一款专业的一站式法律AI工作台,提供AI合同审查、AI合同起草及AI法律问答服务。通过智能问答、深度思考与联网检索,助您高效检索法律法规与司法判例,告别传统模板,实现合同一键起草与在线编辑,大幅提升法律事务处理效率。
- 616次使用
-
- TokenPony
- TokenPony是讯盟科技旗下的AI大模型聚合API平台。通过统一接口接入DeepSeek、Kimi、Qwen等主流模型,支持1024K超长上下文,实现零配置、免部署、极速响应与高性价比的AI应用开发,助力专业用户轻松构建智能服务。
- 680次使用
-
- 迅捷AIPPT
- 迅捷AIPPT是一款高效AI智能PPT生成软件,一键智能生成精美演示文稿。内置海量专业模板、多样风格,支持自定义大纲,助您轻松制作高质量PPT,大幅节省时间。
- 579次使用
-
- golang MySQL实现对数据库表存储获取操作示例
- 2022-12-22 499浏览
-
- 搞一个自娱自乐的博客(二) 架构搭建
- 2023-02-16 244浏览
-
- B-Tree、B+Tree以及B-link Tree
- 2023-01-19 235浏览
-
- mysql面试题
- 2023-01-17 157浏览
-
- MySQL数据表简单查询
- 2023-01-10 101浏览