淘宝“双11”抗住瞬间访问量是关键

以前形成一种文化需要按照多少年的节奏进行,互联网时代,淘宝双十一购物节文化的形成,仅仅3年。淘宝双十一购物节已经影响了人们生活购物方式。而要在一天时间的满足上亿次的消费点击,对于淘宝来说真是一个不小的挑战。

是否能抗住第一分钟瞬间访问量?

2012年,淘宝双11购物狂欢节的一分钟内千万级别访问量涌入,导致购物车和支付宝无法访问。大家知道这时千万级别的ID不仅仅是每个用户的数据,同时包括所购买的产品的数据、包括银行系统的高并发访问。瞬间海量数据的I/O,无论是使用MSSQL,mySQL还是Oracle,等数据库,并发操作的线程数都是有极限的。如此高的并发用户访问、检索以及支付导致硬件工作负荷加大,自然就会形成件上的自我保护性关闭或崩溃,从而使网站瘫痪。

面对2013年的双十一,数据访问已不能简单的在2012年的基础上乘以几。数秒之内的巨量的访问,我想淘宝就是做好完全准备,自己的数据中心远远不能满足短时间内数据高并发。因此是否能抗住第一分钟访问量成为考验淘宝应对方案的重点。

面对高并发访问的解决思路

笔者认为除了全负荷运行自己的数据中心,还可以提前租用专门提供数据分发服务,以及完善多镜像+负载均衡方案。才能做到最低限度的访问影响。

当前面对瞬间巨量的访问,理论上不是不能解决,如果仅仅是为解决高并发,那么需要会造成大部分时间数据中心处于资源浪费状态。

目前互联网公司的数据中心一般采用分布式处理,即大量的数据访问分多次、多地点进行。我们也知道淘宝数据中心架构的核心业务已经从Oracle逐步迁到分布式的MySQL集群中,硬件方面采用大量的PC SERVER,采用本地存储。这样就能降低规模,同时实现大量的分布式机器,实现整体计算性能超强。

同时在多个地方建立多个数据中心,简单说就是不要把鸡蛋放在一个篮子里面。建立多个数据中心之后就可以实现多站点并行作业,保证高并发的数据访问。

以上只是笔者简单的处理高并发的思路,对于支付宝的访问也同样适用。淘宝经过这几年双十一购物经验,不断完善其实施解决方案。希望今年能为消费者带来一次满意的购物体验。