当前位置:首页 > 文章列表 > 数据库 > MySQL > mysql通用二进制包安装

mysql通用二进制包安装

来源:SegmentFault 2023-02-24 13:43:24 0浏览 收藏

本篇文章给大家分享《mysql通用二进制包安装》,覆盖了数据库的常见基础知识,其实一个语言的全部知识点一篇文章是不可能说完的,但希望通过这些问题,让读者对自己的掌握程度有一定的认识(B 数),从而弥补自己的不足,更好的掌握它。

新建mysql用户及数据目录:

# groupadd -r mysql
# useradd -g mysql -r -s /sbin/nologin -M -d /data/mysql mysql
# chown -R mysql:mysql /data/mysql

提取安装:

# tar xf mysql-5.6.30-linux-glibc2.5-x86_64.tar.gz -C /usr/local
# cd /usr/local/
# ln -sv mysql-5.6.30-linux-glibc2.5-x86_64  mysql
# cd mysql

初始化:

# chown -R root:mysql  .
# scripts/mysql_install_db --user=mysql --datadir=/data/mysql  #5.6版本
# ./bin/mysqld --initialize --user=mysql --datadir=/data/mysql  #5.7版本

my.cnf文件注释:

[client] 
port = 3309
socket = /home/mysql/mysql/tmp/mysql.sock 
[mysqld] 
!include /home/mysql/mysql/etc/mysqld.cnf #包含的配置文件 ,把用户名,密码文件单独存放 
port = 3309
socket = /home/mysql/mysql/tmp/mysql.sock 
pid-file = /longxibendi/mysql/mysql/var/mysql.pid 
basedir = /home/mysql/mysql/ 
datadir = /longxibendi/mysql/mysql/var/ 
# tmp dir settings 
tmpdir = /home/mysql/mysql/tmp/ 
slave-load-tmpdir = /home/mysql/mysql/tmp/ 
#当slave 执行 load data infile 时用 
#language = /home/mysql/mysql/share/mysql/english/ 
character-sets-dir = /home/mysql/mysql/share/mysql/charsets/ 
# skip options 
skip-name-resolve #grant 时,必须使用ip不能使用主机名 
skip-symbolic-links #不能使用连接文件 
skip-external-locking #不使用系统锁定,要使用myisamchk,必须关闭服务器 
skip-slave-start #启动mysql,不启动复制 
#sysdate-is-now 
# res settings 
back_log = 50 #接受队列,对于没建立tcp连接的请求队列放入缓存中,队列大小为back_log,受限制与OS参数 
max_connections = 1000 #最大并发连接数 ,增大该值需要相应增加允许打开的文件描述符数 
max_connect_errors = 10000 #如果某个用户发起的连接error超过该数值,则该用户的下次连接将被阻塞,直到管理员执行flush hosts ; 命令;防止黑客 
#open_files_limit = 10240
connect-timeout = 10 #连接超时之前的最大秒数,在Linux平台上,该超时也用作等待服务器首次回应的时间 
wait-timeout = 28800 #等待关闭连接的时间 
interactive-timeout = 28800 #关闭连接之前,允许interactive_timeout(取代了wait_timeout)秒的不活动时间。客户端的会话wait_timeout变量被设为会话interactive_timeout变量的值。 
slave-net-timeout = 600 #从服务器也能够处理网络连接中断。但是,只有从服务器超过slave_net_timeout秒没有从主服务器收到数据才通知网络中断 
net_read_timeout = 30 #从服务器读取信息的超时 
net_write_timeout = 60 #从服务器写入信息的超时 
net_retry_count = 10 #如果某个通信端口的读操作中断了,在放弃前重试多次 
net_buffer_length = 16384 #包消息缓冲区初始化为net_buffer_length字节,但需要时可以增长到max_allowed_packet字节 
max_allowed_packet = 64M # 
#table_cache = 512 #所有线程打开的表的数目。增大该值可以增加mysqld需要的文件描述符的数量  
thread_stack = 192K #每个线程的堆栈大小 
thread_cache_size = 20 #线程缓存 
thread_concurrency = 8 #同时运行的线程的数据 此处最好为CPU个数两倍。本机配置为CPU的个数  
# qcache settings 
query_cache_size = 256M #查询缓存大小 
query_cache_limit = 2M #不缓存查询大于该值的结果 
query_cache_min_res_unit = 2K #查询缓存分配的最小块大小 
# default settings 
# time zone 
default-time-zone = system #服务器时区 
character-set-server = utf8 #server级别字符集 
default-storage-engine = InnoDB #默认存储 
# tmp & heap 
tmp_table_size = 512M #临时表大小,如果超过该值,则结果放到磁盘中 
max_heap_table_size = 512M #该变量设置MEMORY (HEAP)表可以增长到的最大空间大小 
log-bin = mysql-bin #这些路径相对于datadir 
log-bin-index = mysql-bin.index 
relayrelay-log = relay-log 
relayrelay_log_index = relay-log.index 
# warning & error log 
log-warnings = 1
log-error = /home/mysql/mysql/log/mysql.err 
log_output = FILE #参数log_output指定了慢查询输出的格式,默认为FILE,你可以将它设为TABLE,然后就可以查询mysql架构下的slow_log表了 
# slow query log 
slow_query_log = 1
long-query-time = 1 #慢查询时间 超过1秒则为慢查询 
slow_query_log_file = /home/mysql/mysql/log/slow.log 
#log-queries-not-using-indexes 
#log-slow-slave-statements 
general_log = 1
general_log_file = /home/mysql/mysql/log/mysql.log 
max_binlog_size = 1G
max_relay_log_size = 1G
# if use auto-ex, set to 0 
relay-log-purge = 1 #当不用中继日志时,删除他们。这个操作有SQL线程完成 
# max binlog keeps days 
expire_logs_days = 30 #超过30天的binlog删除 
binlog_cache_size = 1M #session级别 
# replication 
replicate-wild-ignore-table = mysql.% #复制时忽略数据库及表 
replicate-wild-ignore-table = test.% #复制时忽略数据库及表 
# slave_skip_errors=all
key_buffer_size = 256M #myisam索引buffer,只有key没有data 
sort_buffer_size = 2M #排序buffer大小;线程级别 
read_buffer_size = 2M #以全表扫描(Sequential Scan)方式扫描数据的buffer大小 ;线程级别 
join_buffer_size = 8M # join buffer 大小;线程级别 
read_rnd_buffer_size = 8M #MyISAM以索引扫描(Random Scan)方式扫描数据的buffer大小 ;线程级别 
bulk_insert_buffer_size = 64M #MyISAM 用在块插入优化中的树缓冲区的大小。注释:这是一个per thread的限制 
myisam_sort_buffer_size = 64M #MyISAM 设置恢复表之时使用的缓冲区的尺寸,当在REPAIR TABLE或用CREATE INDEX创建索引或ALTER TABLE过程中排序 MyISAM索引分配的缓冲区 
myisam_max_sort_file_size = 10G #MyISAM 如果临时文件会变得超过索引,不要使用快速排序索引方法来创建一个索引。注释:这个参数以字节的形式给出.重建MyISAM索引(在REPAIR TABLE、ALTER TABLE或LOAD DATA INFILE过程中)时,允许MySQL使用的临时文件的最大空间大小。如果文件的大小超过该值,则使用键值缓存创建索引,要慢得多。该值的单位为字节 
myisam_repair_threads = 1 #如果该值大于1,在Repair by sorting过程中并行创建MyISAM表索引(每个索引在自己的线程内) 
myisam_recover = 64K#允许的GROUP_CONCAT()函数结果的最大长度 
transaction_isolation = REPEATABLE-READ 
innodb_file_per_table 
#innodb_status_file = 1
#innodb_open_files = 2048
innodb_additional_mem_pool_size = 100M #帧缓存的控制对象需要从此处申请缓存,所以该值与innodb_buffer_pool对应 
innodb_buffer_pool_size = 2G #包括数据页、索引页、插入缓存、锁信息、自适应哈希所以、数据字典信息 
innodb_data_home_dir = /longxibendi/mysql/mysql/var/ 
#innodb_data_file_path = ibdata1:1G:autoextend 
innodb_data_file_path = ibdata1:500M;ibdata2:2210M:autoextend #表空间 
innodb_file_io_threads = 4 #io线程数 
innodb_thread_concurrency = 16 #InnoDB试着在InnoDB内保持操作系统线程的数量少于或等于这个参数给出的限制 
innodb_flush_log_at_trx_commit = 1 #每次commit 日志缓存中的数据刷到磁盘中 
innodb_log_buffer_size = 8M #事物日志缓存 
innodb_log_file_size = 500M #事物日志大小 
#innodb_log_file_size =100M
innodb_log_files_in_group = 2 #两组事物日志 
innodb_log_group_home_dir = /longxibendi/mysql/mysql/var/#日志组 
innodb_max_dirty_pages_pct = 90 #innodb主线程刷新缓存池中的数据,使脏数据比例小于90%  
innodb_lock_wait_timeout = 50 #InnoDB事务在被回滚之前可以等待一个锁定的超时秒数。InnoDB在它自己的 锁定表中自动检测事务死锁并且回滚事务。InnoDB用LOCK TABLES语句注意到锁定设置。默认值是50秒 
#innodb_flush_method = O_DSYNC
[mysqldump] 
quick 
max_allowed_packet = 64M
[mysql] 
disable-auto-rehash #允许通过TAB键提示 
default-character-set = utf8
connect-timeout = 3

PS:官方文档:http://dev.mysql.com/doc/refman/5.7/en/server-system-variables.html

后续配置:

  • 添加服务脚本:

# cp /usr/local/mysql/support-files/mysql.server  /etc/rc.d/init.d/mysqld
# chmod +x /etc/rc.d/init.d/mysqld
  • 添加至服务列表:

# chkconfig --add mysqld
# chkconfig mysqld on
  • 添加bin 目录到PATH 环境变量中, 编辑/etc/profile.d/mysql.sh

PATH=$PATH:/usr/local/mysql/bin
  • 添加MAN 手目录到/etc/man.config

MANPATH  /usr/local/mysql/man
  • 输出头文件至系统头文件路径/usr/include, 通过创建链接实现

ln -sv /usr/local/mysql/include  /usr/include/mysql
  • 添加软件的库文件路经到/etc/ld.so.conf.d/mysql.conf 下的单独文件中

# echo '/usr/local/mysql/lib' > /etc/ld.so.conf.d/mysql.conf
# ldconfig #重载系统库

本篇关于《mysql通用二进制包安装》的介绍就到此结束啦,但是学无止境,想要了解学习更多关于数据库的相关知识,请关注golang学习网公众号!

版本声明
本文转载于:SegmentFault 如有侵犯,请联系study_golang@163.com删除
MySQL-5.6 基于GTID及多线程的主从复制MySQL-5.6 基于GTID及多线程的主从复制
上一篇
MySQL-5.6 基于GTID及多线程的主从复制
Mysql 5.5 主从/读写分离配置
下一篇
Mysql 5.5 主从/读写分离配置
查看更多
最新文章
查看更多
课程推荐
  • 前端进阶之JavaScript设计模式
    前端进阶之JavaScript设计模式
    设计模式是开发人员在软件开发过程中面临一般问题时的解决方案,代表了最佳的实践。本课程的主打内容包括JS常见设计模式以及具体应用场景,打造一站式知识长龙服务,适合有JS基础的同学学习。
    542次学习
  • GO语言核心编程课程
    GO语言核心编程课程
    本课程采用真实案例,全面具体可落地,从理论到实践,一步一步将GO核心编程技术、编程思想、底层实现融会贯通,使学习者贴近时代脉搏,做IT互联网时代的弄潮儿。
    508次学习
  • 简单聊聊mysql8与网络通信
    简单聊聊mysql8与网络通信
    如有问题加微信:Le-studyg;在课程中,我们将首先介绍MySQL8的新特性,包括性能优化、安全增强、新数据类型等,帮助学生快速熟悉MySQL8的最新功能。接着,我们将深入解析MySQL的网络通信机制,包括协议、连接管理、数据传输等,让
    497次学习
  • JavaScript正则表达式基础与实战
    JavaScript正则表达式基础与实战
    在任何一门编程语言中,正则表达式,都是一项重要的知识,它提供了高效的字符串匹配与捕获机制,可以极大的简化程序设计。
    487次学习
  • 从零制作响应式网站—Grid布局
    从零制作响应式网站—Grid布局
    本系列教程将展示从零制作一个假想的网络科技公司官网,分为导航,轮播,关于我们,成功案例,服务流程,团队介绍,数据部分,公司动态,底部信息等内容区块。网站整体采用CSSGrid布局,支持响应式,有流畅过渡和展现动画。
    484次学习
查看更多
AI推荐
  • 笔灵AI生成答辩PPT:高效制作学术与职场PPT的利器
    笔灵AI生成答辩PPT
    探索笔灵AI生成答辩PPT的强大功能,快速制作高质量答辩PPT。精准内容提取、多样模板匹配、数据可视化、配套自述稿生成,让您的学术和职场展示更加专业与高效。
    16次使用
  • 知网AIGC检测服务系统:精准识别学术文本中的AI生成内容
    知网AIGC检测服务系统
    知网AIGC检测服务系统,专注于检测学术文本中的疑似AI生成内容。依托知网海量高质量文献资源,结合先进的“知识增强AIGC检测技术”,系统能够从语言模式和语义逻辑两方面精准识别AI生成内容,适用于学术研究、教育和企业领域,确保文本的真实性和原创性。
    25次使用
  • AIGC检测服务:AIbiye助力确保论文原创性
    AIGC检测-Aibiye
    AIbiye官网推出的AIGC检测服务,专注于检测ChatGPT、Gemini、Claude等AIGC工具生成的文本,帮助用户确保论文的原创性和学术规范。支持txt和doc(x)格式,检测范围为论文正文,提供高准确性和便捷的用户体验。
    30次使用
  • 易笔AI论文平台:快速生成高质量学术论文的利器
    易笔AI论文
    易笔AI论文平台提供自动写作、格式校对、查重检测等功能,支持多种学术领域的论文生成。价格优惠,界面友好,操作简便,适用于学术研究者、学生及论文辅导机构。
    42次使用
  • 笔启AI论文写作平台:多类型论文生成与多语言支持
    笔启AI论文写作平台
    笔启AI论文写作平台提供多类型论文生成服务,支持多语言写作,满足学术研究者、学生和职场人士的需求。平台采用AI 4.0版本,确保论文质量和原创性,并提供查重保障和隐私保护。
    35次使用
微信登录更方便
  • 密码登录
  • 注册账号
登录即同意 用户协议隐私政策
返回登录
  • 重置密码