from:https://cloud.tencent.com/developer/article/1004475
最近研发的项目对 db 依赖比较重,梳理了这段时间使用遇到的8个比较具有代表性的问题,答案也比较偏自己的开发实践,没有 dba专业和深入,有出入的请使劲拍砖!
- mysql读写性能是多少,有哪些性能相关的配置参数?
- mysql负载高时,如何找到是由哪些sql引起的?
- 如何针对具体的sql做优化?
- sql层面已难以优化,请求量继续增大时的应对策略?
- mysql如何做主从数据同步?
- 如何防止db误操作和做好容灾?
- 该选择mysql哪种存储引擎,innodb具有什么特性?
- mysql内部结构有哪些层次?
1.mysql读写性能是多少,有哪些性能相关的重要参数?
这里做了几个简单压测实验
机器:8核cpu,8g内存 表结构(尽量模拟业务):12个字段(1个bigint(20)为自增primary key,5个int(11),5个varchar(512),1个timestamp),innodb存储引擎。 实验1(写):insert => 6000/s 前提:连接数100,每次insert单条记录 分析:cpu跑了50%,这时磁盘为顺序写,故性能较高
实验2(写):update(where条件命中索引) => 200/s 前提:连接数100,10w条记录,每次update单条记录的4个字段(2个int(11),2个varchar(512)) 分析:cpu跑2%,瓶颈明显在io的随机写
实验3(读):select(where条件命中索引) => 5000/s 前提:连接数100,10w条记录,每次select单条记录的4个字段(2个int(11),2个varchar(512)) 分析:cpu跑6%,瓶颈在io,和db的cache大小相关
实验4(读):select(where条件没命中索引) => 60/s 前提:连接数100,10w条记录,每次select单条记录的4个字段(2个int(11),2个varchar(512)) 分析:cpu跑到80%,每次select都需遍历所有记录,看来索引的效果非常明显!
几个重要的配置参数,可根据实际的机器和业务特点调整
max_connecttions
:最大连接数
table_cache
:缓存打开表的数量
key_buffer_size
:索引缓存大小
query_cache_size
:查询缓存大小
sort_buffer_size
:排序缓存大小(会将排序完的数据缓存起来)
read_buffer_size
:顺序读缓存大小
read_rnd_buffer_size
:某种特定顺序读缓存大小(如order by子句的查询)
ps:查看配置方法:show variables like '%max_connecttions%'
;
2.mysql负载高时,如何找到是由哪些sql引起的?
方法:慢查询日志分析(mysqldumpslow)
慢查询日志例子,可看到每个慢查询sql的耗时:
# user@host: edu_online[edu_online] @ [10.139.10.167] # query_time: 1.958000 lock_time: 0.000021 rows_sent: 254786 rows_examined: 254786 set timestamp=1410883292; select * from t_online_group_records;
日志显示该查询用了1.958秒,返回254786行记录,一共遍历了254786行记录。及具体的时间戳和sql语句。
使用mysqldumpslow进行慢查询日志分析
mysqldumpslow -s t -t 5 slow_log_20140819.txt
输出查询耗时最多的top5条sql语句
-s:排序方法,t表示按时间 (此外,c为按次数,r为按返回记录数等) -t:去top多少条,-t 5表示取前5条
执行完分析结果如下:
count: 1076100 time=0.09s (99065s) lock=0.00s (76s) rows=408.9 (440058825), edu_online[edu_online]@28hosts select * from t_online_group_records where unix_timestamp(gre_updatetime) > n count: 1076099 time=0.05s (52340s) lock=0.00s (91s) rows=62.6 (67324907), edu_online[edu_online]@28hosts select * from t_online_course where unix_timestamp(c_updatetime) > n count: 63889 time=0.78s (49607s) lock=0.00s (3s) rows=0.0 (18), edu_online[edu_online]@[10x.213.1xx.1xx] select f_uin from t_online_student_contact where f_modify_time > n count: 1076097 time=0.02s (16903s) lock=0.00s (72s) rows=52.2 (56187090), edu_online[edu_online]@28hosts select * from t_online_video_info where unix_timestamp(v_update_time) > n count: 330046 time=0.02s (6822s) lock=0.00s (45s) rows=0.0 (2302), edu_online[edu_online]@4hosts select uin,cid,is_canceled,unix_timestamp(end_time) as endtime,unix_timestamp(update_time) as updatetime from t_kick_log where unix_timestamp(update_time) > n
以第1条为例,表示这类sql(n可以取很多值,这里mysqldumpslow会归并起来)在8月19号的慢查询日志内出现了1076100次,总耗时99065秒,总返回440058825行记录,有28个客户端ip用到。
通过慢查询日志分析,就可以找到最耗时的sql,然后进行具体的sql分析
慢查询相关的配置参数
log_slow_queries
:是否打开慢查询日志,得先确保=on后面才有得分析
long_query_time
:查询时间大于多少秒的sql被当做是慢查询,一般设为1s
log_queries_not_using_indexes
:是否将没有使用索引的记录写入慢查询日志
slow_query_log_file
:慢查询日志存放路径
3.如何针对具体的sql做优化?
使用explain分析sql语句执行计划
mysql> explain select * from t_online_group_records where unix_timestamp(gre_updatetime) > 123456789; ------------------------------------------------------------------------------------------------------ | id | select_type | table | type | possible_keys | key | key_len | ref | rows | extra | ------------------------------------------------------------------------------------------------------ | 1 | simple | t_online_group_records | all | null | null | null | null | 47 | using where | ------------------------------------------------------------------------------------------------------ 1 row in set (0.00 sec)
如上面例子所示,重点关注下type,rows和extra:
type:使用类别,有无使用到索引。结果值从好到坏:... > range(使用到索引) > index > all(全表扫描),一般查询应达到range级别
rows:sql执行检查的记录数
extra:sql执行的附加信息,如"using index"表示查询只用到索引列,不需要去读表等
使用profiles分析sql语句执行时间和消耗资源
mysql> set profiling=1; (启动profiles,默认是没开启的) mysql> select count(1) from t_online_group_records where unix_timestamp(gre_updatetime) > 123456789; (执行要分析的sql语句) mysql> show profiles; -------------------------------------------------------------------------------------------------------------------- | query_id | duration | query | -------------------------------------------------------------------------------------------------------------------- | 1 | 0.00043250 | select count(1) from t_online_group_records where unix_timestamp(gre_updatetime) > 123456789 | -------------------------------------------------------------------------------------------------------------------- 1 row in set (0.00 sec) mysql> show profile cpu,block io for query 1; (可看出sql在各个环节的耗时和资源消耗) ----------------------------------------------------------------------------------- | status | duration | cpu_user | cpu_system | block_ops_in | block_ops_out | ----------------------------------------------------------------------------------- ... | optimizing | 0.000016 | 0.000000 | 0.000000 | 0 | 0 | | statistics | 0.000020 | 0.000000 | 0.000000 | 0 | 0 | | preparing | 0.000017 | 0.000000 | 0.000000 | 0 | 0 | | executing | 0.000011 | 0.000000 | 0.000000 | 0 | 0 | | sending data | 0.000076 | 0.000000 | 0.000000 | 0 | 0 | ...
sql优化的技巧 (只提一些业务常遇到的问题)
- 最关键:索引,避免全表扫描。
对接触的项目进行慢查询分析,发现top10的基本都是忘了加索引或者索引使用不当,如索引字段上加函数导致索引失效等(如where unix_timestamp(gre_updatetime)>123456789
)
------------------------------------------------------------- | query_id | duration | query | ------------------------------------------------------------- | 1 | 0.00024700 | select * from mytable where id=100 | | 2 | 0.27912900 | select * from mytable where id1=101 | -------------------------------------------------------------
另外很多同学在拉取全表数据时,喜欢用select xx from xx limit 5000,1000这种形式批量拉取,其实这个sql每次都是全表扫描,建议添加1个自增id做索引,将sql改为select xx from xx where id>5000 and id<6000
;
--------------------------------------------------------------------------- | query_id | duration | query | --------------------------------------------------------------------------- | 1 | 0.00415400 | select * from mytable where id>=90000 and id<=91000 | | 2 | 0.10078100 | select * from mytable limit 90000,1000 | ---------------------------------------------------------------------------
合理用好索引,应该可解决大部分sql问题。当然索引也非越多越好,过多的索引会影响写操作性能
- 只select出需要的字段,避免select
---------- ------------ ----------------------------------------------------- | query_id | duration | query | ---------- ------------ ----------------------------------------------------- | 1 | 0.02948800 | select
count(1) from ( select
id
from mytable ) a | | 2 | 1.34369100 | select
count(1) from ( select * from mytable ) a | ---------- ------------ -----------------------------------------------------
- 尽量早做过滤,使join或者union等后续操作的数据量尽量小
- 把能在逻辑层算的提到逻辑层来处理,如一些数据排序、时间函数计算等
- .......
ps:关于sql优化,已经有足够多文章了,所以就不讲太全面了,只重点说自己1个感受:索引!基本都是因为索引!
4.sql层面已难以优化,请求量继续增大时的应对策略?
下面是我能想到的几个方法,每个方法又都是一篇大文章了,这里就不展开。
- 分库分表
- 使用集群(master-slave),读写分离
- 增加业务的cache层
- 使用连接池
5.mysql如何做主从数据同步?
复制机制(replication)
master通过复制机制,将master的写操作通过binlog传到slave生成中继日志(relaylog),slave再将中继日志redo,使得主库和从库的数据保持同步
复制相关的3个mysql线程
- slave上的i/o线程:向master请求数据
- master上的binlog dump线程:读取binlog事件并把数据发送给slave的i/o线程
- slave上的sql线程:读取中继日志并执行,更新数据库
属于slave主动请求拉取的模式
实际使用可能遇到的问题
数据非强一致:cdb默认为异步复制,master和slave的数据会有一定延迟(称为主从同步距离,一般 < 1s) 主从同步距离变大:可能是db写入压力大,也可能是slave机器负载高,网络波动等原因,具体问题具体分析
相关监控命令
show processlist
:查看mysql进程信息,包括3个同步线程的当前状态
show master status
:查看master配置及当前复制信息
show slave status
:查看slave配置及当前复制信息
6.如何防止db误操作和做好容灾?
业务侧应做到的几点:
- 重要db数据的手工修改操作,操作前需做到2点:1 先在测试环境操作 2 备份数据
- 根据业务重要性做定时备份,考虑系统可承受的恢复时间
- 进行容灾演练,感觉很必要
mysql备份和恢复操作
1.备份:使用mysqldump导出数据
mysqldump -u 用户名 -p 数据库名 [表名] > 导出的文件名 mysqldump -uxxx -p xxx mytable > mytable.20140921.bak.sql
2.恢复:导入备份数据
mysql -uxxx -p xxxx < mytable.20140921.bak.sql
3.恢复:导入备份数据之后发送的写操作。先使用mysqlbinlog导出这部分写操作sql(基于时间点或位置) 如导出2014-09-21 09:59:59之后的binlog:
mysqlbinlog --database="test" --start-date="2014-09-21 09:59:59" /var/lib/mysql/mybinlog.000001 > binlog.data.sql
如导出起始id为123456之后的binlog:
mysqlbinlog --database="test" --start-position="123456" /var/lib/mysql/mybinlog.000001 > binlog.data.sql
最后把要恢复的binlog导入db
mysql -uxxxx -p xxxx < binlog.data.sql
7.该选择mysql哪种存储引擎,innodb具有什么特性?
存储引擎简介
插件式存储引擎是mysql的重要特性,mysql支持多种存储引擎以满足用户的多种应用场景 存储引擎解决的问题:如何组织mysql数据在介质中高效地读取,需考虑存储机制、索引设计、并发读写的锁机制等 mysql5.0支持的存储引擎有myisam、innodb、memory、merge等
**myisam和innodb的区别(只说重点了)
- innodb,mysql5.5之后及cdb的默认引擎。
- 支持行锁:并发性能好
- 支持事务:故innodb称为事务性存储引擎,支持acid,提供了具有提交、回滚和崩溃恢复能力的事务安全
- 支持外键:当前唯一支持外键的引擎
- myisam,mysql5.5之前默认引擎
- 支持表锁:插入 查询速度快,更新 删除速度慢
- 不支持事务
使用show engines可查看当前mysql支持的存储引擎详情
8.mysql内部结构有哪些层次?
非专业dba,这里只简单贴个结构图说明下。mysql是开源系统,其设计思路和源代码都出自大牛之手,有空可以学习下。
- connectors:连接器。接收不同语言的client交互
- management serveices & utilities:系统管理和控制工具
- connection pool: 连接池。管理用户连接
- sql interface: sql接口。接受用户的sql命令,并且返回用户需要查询的结果
- parser: 解析器。验证和解析sql语句成内部数据结构
- optimizer: 查询优化器。为查询语句选择合适的执行路径
- cache和buffer:查询缓存。缓存查询的结果,有命中即可直接返回
- engine:存储引擎。mysql数据最后组织并存储成具体文件