【干货】腾讯云分布式数据库,解决分布式事务XA一致性问题

近日,腾讯云发布了分布式数据库解决方案(DCDB),其最明显的特性之一就是提供了高于开源分布式事务XA的性能。大型业务系统有着用户多、并发高的特点,在这方面,集中式数据库(单机数据库)的性能很难支持,因此主流的互联网公司往往采用分布式(架构)数据库,物理上利用更多的低端设备,逻辑上对大表水平拆分支撑业务的需要。

虽然分布式数据库能解决性能难题,但事务一致性(Consistency)的问题,却很难在分布式数据库上得到解决。

分布式事务老大难题,数据一致难以实现

众所周知,一个事务所做的更新,分布式数据库系统内部多个独立的数据节点完成(每个节点的本地事务是这个全局事务的一个事务分支),在这样一个全局事务提交期间,有可能某些事务分支无法成功提交。

针对这一问题,虽然业内早已存在理论解决方案——二阶段提交协议(简称2PC),并延伸出分布式事务(简称XA)的解决方案。但业内却少有工程化实现且大规模应用的案例。而腾讯云分布式数据库DCDB,却已在内部业务中应用多年。

(图:二阶段提交算法)

目前DCDB已应用在腾讯内部90%以上的交易、计费业务,并且三一重工(树根互联)、汇通天下(G7)、阅文集团(起点/创世中文网等)、微众银行、和泰人寿、威富通等都在该产品。

腾讯云首发分布式数据库XA,支持MySQL 5.7

腾讯云分布式数据库DCDB,是基于腾讯金融级数据库(公司内部代号TDSQL)云化改造而来的兼容MySQL协议的分布式数据库。现如今,腾讯云DCDB已经正式在MySQL 5.7(percona分支)协议上支持分布式事务XA,并已在腾讯云公有云、金融云发布供开发者使用。开发者可以通过申请DCDB实例,并在初始化后,连接实例运行如下sql进行初始化:

为更好的支持分布式事务,DCDB还新增了SQL命令:

以Python为例,可以对转账业务进行如下编码:

 

分布式事务的好处在于会大大降低应用开发难度,因为在某些不支持XA的数据库中,需要业务系统通过特殊并且巧妙的设计,而非利用数据库来解决事务中数据不一致等问题。这种对应用开发者的技术水平要求很高,越是复杂的业务系统,越会增加开发成本和技术门槛,这是业内大多数开发者面对分布式数据库时,只能望而却步的主要原因。

腾讯云DCDB XA关键实现方案

1、DCDB架构介绍

腾讯云DCDB整个集群架构简图如下图,MySQL采用主从节点配置(也叫作主备)一套主从节点叫做SET,在每一个SET外配置网关(TProxy),形成一个物理分片(Shard)。

DCDB后端是MySQL(或其分支版本)数据库,目前腾讯云公有云发布支持XA的版本是基于MySQL 5.7.17(percona分支)。

2、网关(TProxy)与XA

网关是用于接收请求并与后端MySQL建立连接的网络模块。网关可以用两种模式工作,一种称为noshard,此模式下网关不处理/不解析SQL语句,透明转发请求和应答。另一种模式称为shard(分布式,即支持自动水平分表)模式下,TProxy会解析SQL并转发到不同的数据分片。

在实现XA之前,网关不允许在一个事务中向多个SET发送DML语句。因为未实现二阶段提交(2PC)时,事务采用一阶段提交,如果分布式中某一个SET提交失败了或回滚了,那么这个分布式事务就处于不一致的状态。

(网关的工作方式)

二阶段提交中需要的事务管理器(TM)。为了解决容灾、简化架构,腾讯云DCDB将TM实现在TProxy中,而DCDB的网关是一个无状态的模块,通过这一架构,DCDB XA可以支持:

1、分布式事务对业务透明,兼容单机事务语法(start transaction/commit/rollback/savepoint)。

2、每个网关都可以独立接受和处理事务请求,且无需与其他网关进行协调节点故障不丢失事务。

3、允许显式事务中多条语句分别发给多个分片。

4、网关无需持久状态,无需容灾,可以随时经由调度集群退出或加入集群,且性能可以扩展。

5、支持autocommit下单条语句写访问多个分片等。

DCDB网关还允许以流式处理方式运行group by、order by,流式处理让这类操作变得非常方式非常高效;网关还支持两个Shard使用shardkey(分表键)做等值连接,以及使用shardkey的子查询。

未来,腾讯云还计划支持分布式JOIN、Sparksql、二级分区等高级功能,兼容更多MySQL高级语法。

3、强同步与XA

由于腾讯云DCDB默认采用强同步复制,即主从节点数据完全一致,因此XA事务也遵循强同步的逻辑,即需等待从机确认数据同步后,才给业务以应答(commit)。基于强同步,在以下两种异常情况下,DCDB XA可轻松应对

1、主节点故障时,已确认事务数据不会丢失:主节点故障那么拥有最新数据和binlog的从机就被选为主节点,这其中的数据也包括所有已经向用户确认完成提交的事务的数据。

2、原主节点恢复后重新加入集群,未确认事务自动闪回:原主节点恢复重新接入集群,它将作为从机运行,此时他可能存留多余的已提交事务(此时事务并未得到强同步同步确认,即原备机并没有相关数据),那么这些事务会被闪回。虽然这些事务可能已经在原主节点的MySQL内部完成提交,但由于强同步机制,他并不会向客户端返回commit语句,这意味着仍被视为一个未完成的事务。因此,这些事务的闪回了也并没有破坏数据库的ACID属性。这里值得说的是,闪回flashback是基于binlog生成做逆操作,它与数据库回滚并不同rollback,闪回可以做DDL操作。

腾讯云DCDB的强同步为腾讯金融级数据库自研的一项能力,性能比官方半同步大幅提高,几乎等于异步复制性能,腾讯云DCDB在腾讯内部应用多年,未发生过一起因为主从切换、故障带来的数据误差。而且,从性能上,也撑住了腾讯公司各类大型运营活动如红包、各类游戏大型推广等海量并发,其主要原因是强同步采用异步提交/等待方式,且不占用数据库工作线程。

4、并发控制与隔离级别

为了达到数据一致性和性能的平衡,分布式事务的关键是数据库隔离控制。XA的隔离级别最高可以达到serializable(完全串行化),该级别将不存在幻读的问题,serializable级别可以通过设置SET global tx_isolation=’serializable’来对DCDB所有物理分片(和其上承载的MySQL数据库)进行设置。当然,也可以通过调整隔离级别以调整数据库实例性能,理论上,Read Uncommitted性能最高,但可能存在脏读、幻读的情况。

(ANSI/ISO定义的SQL-92标准定义的四种隔离级别)

5、分布式事务处理算法

前面讲到,腾讯云DCDB的网关在shard模式下已经能够解析SQL语句,腾讯云在网关上实现TM以使得XA最具效率。为此,我们在网关中实现TM中的协调器(coordinator),并在网关中维护每个XA的状态,记录好每个XA写入的SET,然后在提交阶段做两阶段提交即可,大致流程如下:

1、网关在执行一个事务的insert/update/delete语句时,会记录这个语句修改了哪个SET;

2、SET时会发送一个XA START在这个SET上面启动事务分支;(注:XA事务开始时,并不确认事务将以哪种提交方式执行,因此总是以xa start来开启一个事务)

3、检测是否影响SET个数≤1,若是,则直接做一阶段提交(xa commit one phase)。

4、影响SET个数≥2,则改为做两阶段提交

1)网关首先发送xa prepare ‘gtid’ 给参与的SET(大于等于2个SET)

2)SET接受到xa prepare应答ok(表示成功确认)

3)收到成功确认后,写入XA对应的commit log,再发送xa commit ‘gtid’参与SET。

4)如果有SET返回了错误,或者写入commit log失败,那么网关发送 xa rollback ‘gtid’ 给相关SET,这样这个全局事务就实现了回滚。

腾讯云DCDB的commit log是在SET中存储,这个步骤是批量完成的——网关后台线程会汇集正在提交的分布式事务然后在独立的连接和事务中完成对每个SET的写入,并且每个事务的commit log只写入一个SET中,因而这个开销并没有显著增加事务的提交耗时或者降低TPS。而且,依赖腾讯云DCDB已有的强同步和容灾特性,只要XA成功写入了commit log,就意味着数据已经写入从机。

虽然绝大多数的XA事务可以正常执行。但极少数的异常情况还是会影响整个集群稳定性,因此,腾讯云设计了agent(监控模块),在故障后继续协助完成本地MySQL上面prepared事务的提交,即agent会解析commit log,并根据异常处理本地仍然处于prepared的事务数据;如果commit log上面没有事务的提交决定的话,agent也会回滚超时未被提交的prepared本地事务。

虽然在MySQL 5.5、5.6等版本早已实现XA,但这两个版本相对于5.7仍然有性能不足,因此腾讯云目前只在公有云上基于5.7.17支持XA版本。如今,腾讯云在MySQL 、percona、MariaDB等分支中做了大量优化和相关bug修复(部分已经提交到社区修复patch或开源),未来腾讯云还将继续致力于新特性的开发和相关Bug的修复,为众多有需要的企业,提供更好的分布式数据库支持。