佚名 发表于:15年03月03日 00:30 [转载] 赛迪网
仅在今年除夕22:30人们通过微信平台送出的一波红包数量就达到了1.2亿个,而在2014年除夕夜最高峰值的微信红包派送量仅为2.5万个,两者相差4800倍,但微信红包并未出现大的操作故障。
除夕夜,当数以亿计的中国家庭团聚在一起享受“微信摇一摇”和“QQ抢红包”带来的欢声笑语之际,不为人知的则是早在一个多月前,名为“春晚前线指挥部”的超级团队便在腾讯公司悄然成立,这个由分布在北京、上海、广州、深圳四个城市,近20多个跨部门参与的超级团队,最终让微信和QQ两大平台的红包在春节期间顺利起飞。
截至2月19日凌晨,QQ红包收发总量6.37亿个,抢红包人数为1.54亿,通过QQ参与春晚投票的次数为6.7亿。微信摇一摇总次数达110亿次,平均每分钟8.1亿次,微信红包收发达10.1亿次,腾讯的超级团队累计保障了超过16亿次的红包起飞。
人们看到的只是这一组数据释放出来中国人对于摇红包、发红包的热情与交互。看不到的,却是腾讯这样一家本土互联网公司在大数据时代所建立起来的强大而完善的数据分析和处理能力,从而保证了一个超级平台的安全、高效、快速运转。
从2.5万到1.2亿的海量增长
在人们所熟知的微信红包和QQ红包背后,则是支撑两大红包产品的腾讯财付通支付平台。从除夕当天截止到央视春晚结束,财付通平台支撑微信和QQ红包16亿多笔交易,高峰时期的交易量达到每秒4.5万笔。
《中国企业报》记者从腾讯官方平台获得的数据显示:仅在今年除夕22:30人们通过微信平台送出的一波红包数量就达到了1.2亿个,而在2014年除夕夜最高峰值的微信红包派送量仅为2.5万个,两者相差4800倍,但微信红包并未出现大的操作故障。
从2.5万到1.2亿的海量增长背后,4800倍的差异却始终如一,正是得益于一支分布在北京、上海、广州、深圳的腾讯超级保障团队,直接保证这一平台的人员就突破了100多人。还不算那些间接保障体系,以及海量的数据接收存储服务器。
“当数亿中国家庭享受着除夕团圆饭时,这一团队中的所有人都放弃与家人团聚的机会,一边观看央视春晚直播时况,一边监控红包后台数据。”一位腾讯内部员工透露,当天团队中一个年轻的三口之家甚至将除夕年夜饭搬到公司,以简单的快餐解决完成了一家人团圆的愿望。
在这支超级团队中,超过八成为年轻的理工男,他们分布在中国的四个城市,以“夜以继日”加班加点的工作动力,保障了整个红包平台的安全畅通,没有出现大规模的红包无法使用等差体验的情况。特别是在央视春晚22:33现金红包“摇一摇”高峰时期,平台的良好运营保障了这一功能的顺利实施。
更有意思的是,在当天央视春晚摇一摇送红包的活动中,一位腾讯保障团队的成员还幸运地摇到了888元的现金红包。
从快准稳到海量之道
早在2014年“双十一”的支付宝平台超过500亿的巨大交易量背后,正是得益于阿里云强大的技术支撑系统。同样,此次微信和QQ红包顺畅运营的背后,则是得益于腾讯一个名为“海量之道2.0”的技术体系。
据了解,此次春节抢红包平台背后,对于腾讯技术团队最大的考验集中在三个环节,一是让海量用户在同一时间能快速摇到红包,二是让摇到红包的用户可以成功拆开,三是让拆开的红包可以快速进入钱包后分享使用。
在专业技术人员看来,腾讯对于微信和QQ两大红包平台的技术解决方案,其难度不亚于“中国铁路的售票系统”。对于微信红包来说,核心是摇、拆和分享,整个系统设计时必须尽最大可能保证这三个步骤一气呵成,任何关联系统出现异常的时候马上进行系统降级,防止引起系统雪崩。
于是,腾讯通过“有损服务、柔性服务、大系统小做”三大核心理念,解决了人们在“摇红包、拆红包、发红包”全过程中可能遭遇的“拥挤”和“堵塞”等情况。比如说,有损服务是通过精心拆分产品流程,选择性牺牲一部分数据一致性和完整性从而保证核心功能绝大多数运行。而大系统小做则采用的是化繁为简,分而治之,用多个独立的模块来实现整体系统的功能,最终让小系统保障了大数据的安全、通畅。
在央视春晚第一波的摇红包活动中,微信红包几乎满分通过考验。而在这一成绩的背后,正是得益于腾讯这样一家中国互联网巨头的数据分析和数据处理能力,已经开始在全球互联网企业面前抢夺头筹。