阿里巴巴双十一系统平稳运行的背后,是4个大的技术突破:

异地多活。阿里实现了交易和支付平台的异地多活,由杭州、上海和深圳三地的机房在分担双11的流量,保证整个系统的平稳运转。

金融级海量关系型数据库。阿里自主研发的OceanBase,在本次双11中100%承担天猫流量,实现0漏单、0故障。去年的双11,OceanBase只是承担了10%的流量。

全站HTTPS安全传输。通过https从客户端到服务器之间全程加密,保护消费者和商家信息不被第三方劫持。https技术本身并不神秘,但是全站改造涉及的投入非常大,阿里在去年开始决定做这件事情,现在已经全站完成天猫、淘宝的全站改造。

混合云架构。充分利用了阿里云的公共云计算资源来分担一部分流量,阿里、淘宝、支付宝在今年双11做到了这一点,并且扛住了严酷的流量考验。

一些数据详情

根据阿里方面介绍的一些数据如下:

“双11”购物狂欢节以来,交易额、交易峰值、支付峰值这三项指标连续7年一路走高:交易额从2009年的0.6亿元人民币狂飙至去年的571亿元,而这一纪录今年在11:50分就已被打破。

更能体现技术能力的订单创建峰值指标则从2009年每秒钟400笔飙升至14万笔,支付峰值从每秒200笔提高到8.59万笔。从2009年到2015年,“双11”订单创建峰值增长了350倍,支付峰值增长了430倍。

Visa最新的实验室测试数据是每秒5.6万笔,另一家全球性支付清算平台MasterCard的实验室测试数据为每秒4万笔,在实际应用中,Visa处理的峰值为每秒1.4万笔。支付宝此次创造的纪录比Visa快大约6倍。

阿里团队谈天猫双11技术突破:异地多活、OceanBase、全站https和混合云-风君雪科技博客