Author: 襄洛
我们知道MySQL的主备同步是通过binlog在备库重放进行的,IO线程把主库binlog拉过去存入relaylog,然后SQL线程重放 relaylog 中的event,然而这种模式有一个问题就是SQL线程只有一个,在主库压力大的时候,备库单个SQL线程是跑不过主库的多个用户线程的,这样备库延迟是不可避免的。为了解决这种n对1造成的备库延迟问题,5.6 引入了并行复制机制,即SQL线程在执行的时候可以并发跑。
关于其背后的设计思想,可以参考这几个worklog WL#4648,WL#5563,WL#5569,WL#5754,WL#5599,之前的月报也对并行复制原理进程了阐述,读者朋友可以回顾下。
本篇将从代码实现角度讲述并行复制是如何做的,分析基于MySQL 5.6.26。
binlog 是对数据库更改操作的记录,里面是一个个的event,如类似下面的event序列:
Query_log
Table_map
Write/Delete/Update_row_event
Xid
关于每个event的含义可以参考官方文档。
并行复制提供了几个参数配置,可以通过修改参数值对其进行调节。
slave_parallel_workers // worker 线程个数
slave-checkpoint-group // 隔多少个事务做一次 checkpoint
slave-checkpoint-period // 隔多长时间做一次 checkpoint
slave-pending-jobs-size-max // 分发给worker的、处于等待状态的event的大小上限
下面是并行复制中用到几个概念:
MTS // Multi-Threaded Slave,并行复制
group // 一个事务在binlog中对应的一组event序列
worker // 简称W,event 执行线程,MTS新引入的
Coordinator // 简称C,分发协作线程,就是之前的 SQL线程
checkpoint // 简称CP,检查点,C线程在满足一定条件下去做,目的是收集W线程执行完信息,向前推动执行位点
B-event // 标志事务开始的event,BEGIN 这种Query或者GTID
G-event // 包含分发信息的event,如Table_map、Query
T-event // 标志事务结束的event,COMMIT/ROLLBACK 这种Query 或者XID
sql/rpl_rli_pdb.h // pdb的是 parallelized by db name简写WL#5563 sql/rpl_rli_pdb.cc sql/rpl_slave.cc sql/log_event.cc sql/rpl_rli.h
db_worker_hash_entry
,db->worker 映射关系,也即分发关系,所有的分发关系缓存在C的一个HASH表中(APH)
- db // db 名
- worker // 指向worker的指针,表示被分发到的W线程
- usage // 有多少正在分发的group用到这个关系
- temporary_tables // 用于在C和W之前传递临时表
slave_job_item
,worker的jobs队列的成员
- data // 就是一个binlog event
circular_buffer_queue
,用DYNAMIC_ARRAY arrary实现的一个首尾相连的环形队列,是其他重要数据结构的基类
- Q // 底层用到的 DYNAMIC_ARRAY
- size // Queue 的容量
- avail // 队列尾
- entry // 队列头
- len // 队列实际大小
- de_queue() // 出队操作
- de_tail() // 尾部出队
- en_queue() // 入队
- head_queue() // 取队列头,但是不出队
Slave_job_group
,维护一个正在执行的事务的信息,如对应的位点信息、事务分发到的worker、有没有执行完等。
- group_master_log_name // 对应主库的 binlog 文件名
- group_master_log_pos // 对应在主库 binlog 中的位置
- group_relay_log_name // 对应备库 relaylog 文件名
- group_relay_log_pos // 对应在备库 relaylog 中的位置
- worker_id // 对应的worker的id
- worker // worker 指针
- total_seqno // 当前group是启动以来执行的第几个group
- master_log_pos // group中B-event的位置
- checkpoint_seqno // 当前group是从上次做完CP后的第几个group
- checkpoint_log_pos // worker收到checkpoint信号后更新
- checkpoint_log_name // 同上
- checkpoint_relay_log_pos // 同上
- checkpoint_relay_log_name // 同上
- done // 这个group是否已经被worker commit掉
- shifted // checkpoint 的时候shift值
- ts // 时间,更新SBM
- reset() // 重置上面的成员变量
Slave_committed_queue
,维护分发执行的group信息,是circular_buffer_queue
的子类,队列里存的时 Slave_job_group
- lwm // 类型是Slave_job_group,低水位(Low-Water-Mark),表示上次CP执行到的位置
- last_done // 类型是一个DYNAMIC_ARRAY,里面存的是Slave_job_group:total_seqno,表示每个worker执行到第几个group
- assigned_group_index // 正在分发的group在GAQ中的位置
- move_queue_head() // 做checkpoint时,把已经commit的group移出队列
- get_job_group() // 返回队列指定位置的Slave_job_group
- en_queue() // 入队一个 Slave_job_group
Slave_jobs_queue
,任务队列,也是circular_buffer_queue
的子类,队列里存的是slave_job_item
,每个worker有一个这样的任务队列
- overfill // 队列满标志
- waited_overfill // 队列满的次数
Slave_worker
,对应一个worker,Relay_log_info
的子类
- jobs // 类型是 Slave_jobs_queue,C分发过来的event都放在这里面
- c_rli // 指向C的指针
- curr_group_exec_parts // 类型是 DYNAMIC_ARRAY,里面存的是当前group用到的分发关系,是指向APH成员的指针,简写CGEP
- curr_group_seen_begin // 当前所在 group 有没有解析到 B-event
- id // worker 的id标识
- last_group_done_index // worker上一次执行的group在GAQ中的位置
- gaq_index // worker 当前执行的的事务在GAQ中的位置
- usage_partition // worker用到的分发关系个数
- end_group_sets_max_dbs // 和串行执行相关的
- bitmap_shifted // CP后bitmap需要偏移的距离,用于调整 group_executed
- wq_overrun_cnt // 超载多少
- overrun_level // 超载指标
- underrun_level // 饥饿指标
- excess_cnt // 用于往mts_wq_excess_cnt累计
- group_executed // 类型是 MY_BITMAP,标示CP后执行的group
- group_shifted // 类型是 MY_BITMAP,计算group_executed,临时用作中间变量
- running_status // 标识 worker 线程的状态,可以有 NOT_RUNNING、RUNNING、ERROR_LEAVING、KILLED
- slave_worker_ends_group () // 当一个group执行完或者异常终止时会调用
- commit_positions() // group执行完是调用,用于更新位点和bitmap
- rollback_positions() // 回滚bitmap
Relay_log_info
,对应C线程,在MTS之前对应SQL线程,为了支持并行复制,在原来的基础上又加了一些成员
- mapping_db_to_worker // 非常重要的成员,类型是HASH,用于缓存所有的分发关系,APH(Assigned Partition Hash),目的能通过db快速找到映射关系,但HASH长度大于mts_partition_hash_soft_max(固定16)时,会对没有使用的映射关系进行回收。
- workers // 类型是 DYNAMIC_ARRAY,成员是一个个Slave_worker
- pending_jobs // 一个统计信息,表示待执行job个数
- mts_slave_worker_queue_len_max // 每个worker最多能容纳jobs的个数,目前hard code是16384
- mts_pending_jobs_size // 所有worker的job占的内存
- mts_pending_jobs_size_max // 所有worker的job占的内存,对应配置 slave_pending_jobs_size_max
- mts_wq_oversize // 标示job占用内存已达上限
- gaq // 非常重要的成员,代码注释里经常提到的GAQ,类型是Slave_committed_queue,存的成员是Slave_job_group,大小对应配置 slave-checkpoint-group,用于W和C交互
- curr_group_assigned_parts // 类型是 DYNAMIC_ARRAY,当前group中已经分配的event的映射关系,可以和Slave_worker的curr_group_exec_parts对应,简写CGAP
- curr_group_da // 类型是DYNAMIC_ARRAY,对于还无法决定分发worker的event,先存在这里
- mts_wq_underrun_w_id // 标识比较空闲的worker的id
- mts_wq_excess_cnt // 标示worker的超载情况
- mts_worker_underrun_level // 当W的任务队列大小低于这个值的认为处于饥饿状态
- mts_coordinator_basic_nap // 当work负载较大时,C线程sleep,会用到这个值
- opt_slave_parallel_workers // 对应配置 slave_parallel_workers
- slave_parallel_workers // 当前实际的worker数
- exit_counter // 退出时用
- max_updated_index // 退出时用
- checkpoint_seqno // 上次CP后分发的group个数
- checkpoint_group // 对应配置 mts_checkpoint_group
- recovery_groups // 类型是 MY_BITMAP,恢复时用到
- mts_group_status // 分发线程所处的状态,取值为 MTS_NOT_IN_GROUP、MTS_IN_GROUP、MTS_END_GROUP、MTS_KILLED_GROUP
- mts_events_assigned // 分发的event计数
- mts_groups_assigned // 分发的group计数
- least_occupied_workers // 类型是 DYNAMIC_ARRAY,从注释将worker按从空闲到繁忙排序的一个数组,用于先worker用,但是实际并未用到。
- last_clock // 上次做checkpoint的时间
其它方法
map_db_to_worker() // 把db映射给worker
get_least_occupied_worker() // 获取负载最小的worker
wait_for_workers_to_finish() // 等待worker完成,并发临时转成串行是用到
append_item_to_jobs() // 把任务分发给 worker
mts_move_temp_table_to_entry() // 用于传递临时表
mts_move_temp_tables_to_thd() // 同上
和单线程SQL相比,MTS需要初始化新加的MTS变量和启动worker线程。
主要是slave_start_workers()
这个函数。会初始化C线程的MTS变量,如workers、curr_group_assigned_parts、curr_group_da、gaq等,接着调用init_hash_workers()
初始化HASH表mapping_db_to_worker,在这些做完后依次调用 slave_start_single_worker()
初始化每个worker并启动W线程。worker 的的初始化包括jobs任务队列、curr_group_exec_parts 等相关变量,其中jobs长度目前是固定的16384,目前还不可配置;worker线程的主函数是handle_slave_worker()
,不停的调用slave_worker_exec_job()
来执行C分配的event。
分发线程主体和之前的SQL线程基本是一样的,不停的调用 exec_relay_log_event()
函数。exec_relay_log_event()
主要分2部分,一是调用next_event()
读取relay log,一是apply_event_and_update_pos()
做分发。
next_event()
比较简单,就是不停的用 Log_event::read_log_event()
从relay log 读取event,除此之外还会调用mts_checkpoint_routine()
做checkpoint,后面会详细讲checkpiont过程。
apply_event_and_update_pos()
进行分发的入口是Log_event::apply_event()
,如果没有开MTS,就是原来的逻辑,SQL线程直接执行event,如果开了MTS的话,调用get_slave_worker()
,这个是分发的主逻辑。
在介绍分发逻辑前,先将所有的binlog event 可以分下类(代码里是这么分的):
B-event // BEGIN(Query) 或者 GTID
G-event // 包含db信息的event,Table_map 或者 Query
P-event // 一般放在G-event前的,如int_var、rand、user_var等
R-event // 一般放在G-event后的,如各种Rows event
T-event // COMMIT/ROLLBACK(Query) 或者XID
分发逻辑是这样的:
map_db_to_worker()
实现。调用map_db_to_worker()
时,有2个参数比较重要,一个是dbname,这个就是分发关系的key,一个是last_worker,表示当前group中event上一次分发到的worker(last_assigned_worker);
get_least_occupied_worker()
b) 这个映射关系有group用,并且对应的worker和last_worker一样,就用last_worker,映射关系引用计数加1 c) 如果映射关系对应的worker和last_worker不一样,这表示有冲突,就需要等到引用这个映射关系的group全部执行完,然后把db映射为last_worker;get_least_occupied_worker()
,并把新生成的映射插入到APH中,如果HASP表长度大于 mts_partition_hash_soft_max 的话,在插入前会对APH做一次收缩,从中去除掉没有被group引用的映射关系;什么时候切换为串行? 如果G-event包含的db个数大于MAX_DBS_IN_EVENT_MTS(16个),或者更新的表被外键依赖,那么就需要串行执行当前group。串行固定选用第0个worker来执行,在分发前会等待其它worker全部执行完,在分发后会等待所有worker执行完。gropu执行完后自动切换为并行执行。
worker 确定好了,下一步就是分发event了,入口函数 append_item_to_jobs()
。这个函数的作用非常明确,就是把event插入到worker的jobs队列中,在插入前会有对event大小有检查:
W线程执行的主逻辑是 slave_worker_exec_job()
:
do_apply_event_worker()
,最终调用每个event的do_apply_event()
方法,和单线程下一样;slave_worker_ends_group()
,表示一个事务已经执行完了,a) 更新位点,通过commit_positions()
,更新事务在GAQ中对应的Slave_job_group
,这样C就知道W执行到哪了,另外还会更新W的bitmap信息(如果是xid event,在apply_event中就会调用commit_positions) b) 清空 curr_group_exec_parts,将映射关系中的引用数减1;分发和执行逻辑可以用下图简单表示: C线程在GAQ中插入group,标示一个要执行的事务,接着确定分发关系(从CGAP或者APH中,或者生成新的),然后按映射关系把event分发给对应worker的job队列;worker在执行event过程中更新自己的CGEP,在执行完整个group后,根据CGEP中的记录去更新APH中引用关系的计数,同时把GAQ中的对应group标示为done。
如前所述,C线程会在从relaylog读取event后,会尝试做checkpoint,入口函数是mts_checkpoint_routine()
。checkpoint的作用是把worker执行完的事务从GAQ中去除,向前推进事务完成点。
有2个条件会触发checkpoint:
GAQ中的事务推进通过 Slave_committed_queue::move_queue_head()
实现,从前向后扫描GAQ中的group:
Slave_job_group.done
标志确认),就把这个group出队,同时把这个出队的group信息赋给低水位lwm,向前推进;类似单线程复制,stop slave 命令会终止C线程和W线程的运行。
C线程收到退出信号后,会先调用slave_stop_workers()
终止W线程,过程如下:
Slave_worker::STOP
,同时设置worker执行终止位置rli->max_updated_index
;w->running_status == Slave_worker::NOT_RUNNING
);mts_checkpoint_routine()
,做一次checkpoint;W线程在pop_jobs_item()
中会调用set_max_updated_index_on_stop()
,会检查2个条件 1) job队列是空的,2) 当前worker执行的事务在GAQ中的位置,是否已经超过rli->max_updated_index
;任一条件满足就设置状态 running_status 为 Slave_worker::STOP_ACCEPTED
,表示开始退出。
从上面的逻辑可以看出,在收到stop信号后,worker线程会等正在执行的group完成后,才会退出。
W被kill或者执行出错
slave_worker_exec_job()
进入错误处理逻辑,调用Slave_worker::slave_worker_ends_group()
,给C线程发KILL_QUERY信号,然后做相关变量的清理,把job队列的任务全部清理掉,最终把running_status置为Slave_worker::NOT_RUNNING
,表示结束;slave_stop_workers()
逻辑,给活跃的W线程发送STOP信号;C被kill
C被kill的处理逻辑和stop slave差不多,不同之处在于等worker全部终止后,不会做checkpoint。
Slave线程重启(正常关闭或者异常kill)后,需要根据Coordinator和每个Worker的记录信息来进行恢复,推进到一个一致状态后再开始并行,详细过程我们下期月报再分析。
5.6 的MTS是按db来进行分发的,分发粒度太大,如果只有一个db的时候,就没有并发性了,所有group都分给一个worker,就变成单线程执行了。一个简单的优化改进是改成按table来分发,只需要把分发的key从dbname改成dbname + tablename,整体分发逻辑不需要变动。再进一步,如果遇到热点表更新呢,这时候binlog里记录的event都是针对一个表的更新,又会变成串行执行。这个时候就需要变化一下分发测略喽,如按事务维度进行分发,这个策略对源码的改动就会比较大些,有需要的同学可以试试:-)