扫码打开虎嗅APP
虎嗅注:除夕夜,百度首次加入春晚红包大战就挺住了,没有宕机,而不巧的是,昨晚微信红包短时间挂掉了,导致无法发微信红包,二者因此形成了鲜明的对比,有人说是因为百度红包的流量远比微信的小,208亿次互动显然更有说服力。在知乎上有一个“BAT春晚发红包,腾讯、阿里连续宕机3年,为何2019年百度挺住了?”的提问,知乎注册用户、同时也是虎嗅作者的maomaobear进行了解答,如下,虎嗅获授权发表。题图来自百度某员工的朋友圈。
百度是史上第一个扛住央视春晚流量的公司。
中国互联网说大流量,一般我们会说双十一晚上零时全民网购,全国人民一起抢购的突发流量是大流量,还有就是春运12306抢票的流量。而实际上,春晚抢红包的流量才是终极BOSS。
我们看下数据。微信是装机量最大的APP了,日活高峰是10亿多点儿,支付宝这种日活不过2.3亿,而春晚是在短短几分钟内,有10多亿用户同时发出需求。这个强度非常之高。
2015年除夕当天,微信红包收发总量达10.1亿次,春晚全程(2月18日20:00~2月19日00:48)微信春晚摇一摇互动次数达110亿次,出现在除夕夜当天22:34出现峰值8.1亿次/分。腾讯宕机1小时。
2016年,支付宝拿下了春晚合作机会。除夕夜,支付宝出现偶尔宕机。
2018年春晚,淘宝提前推导了各种极端情况,在2017年双十一基础上再扩容3倍。结果春晚当晚登录的实际峰值超过了2017年双十一的15倍,尤其新用户的瞬时登录更是完全超出预料,经受过双十一洗礼的阿里服务器还是宕机了。
前有AT的前车之鉴,百度今年能不能扛住,也是受到很多关注。
事实上,当晚第一轮摇一摇红包活动结束后,截至21:00,全球观众参与百度APP红包互动就已经达到了92亿次,而这才刚刚开始。史无前例的9亿红包数额、还有2019年智能机进一步普及,互联网加速下沉县城、乡镇、农村的趋势,果然都让2019人们的红包热情爆发得更加汹涌。
这些还不是全部。
任何红包类、抽奖类活动还会有一个灰色的影子参与其中,这就是中国互联网的黑产用户,中国薅羊毛党手里掌握大量虚拟资源,拼多多号称一夜损失200亿就是它们干的,它们可以在短时间内产生巨大流量,这部分流量叠加正常流量,也进一步加大了服务器的压力。
另外,因为抢红包这个东西,是有一个流程的,涉及很多外部服务,百度自己的服务器只是其中一个环节。
没下载的用户下载百度APP,没注册的注册,注册的收短信要通过电信运营商,所有网络需求都要通过硬件。APP市场的服务器,电信运营商的网络、机房、光纤等硬件,有一个环节容量不够,都可能导致宕机。
事实上,春晚当天百度的第一轮红包互动之后,苹果应用商店、华为、小米、三星几大应用商店全部挂掉,其中苹果应用商店长达12分钟不能访问,今年的流量显然远超预期。在春晚直播期间,全球观众参与百度APP红包互动活动次数达208亿次!
但是,百度扛住了。
而且,相对往年,百度今年多了很多新玩法。语音搜索、视频红包的需求消耗的资源要高于传统的抢红包并发需求。百度这次使用个性化信息流和视频技术,为每个用户定制内容,千人千面,也让流量压力倍数增长。
但面对今年如此的超级需求,百度居然能顶住,全程没有出现明显故障,不得不说,业界公认的“百度技术强”不是一句空话,经过春晚这个流量王者的洗礼和证明,更稳了。
当然,平稳运转背后也是险象环生,百度花了相当大的力气。
据说,在确定拿下春晚红包互动权后,百度成立了一个近千人的项目组,包括产品、研发、运营、客服以及风控,应对爆发数量的需求。
在技术方面,百度很早就落实了服务流量隔离、系统升级、专线新增以及服务器扩容等工作,提前进行了多轮全链路压力测试和多轮的方案预演。
在硬件资源上,除了常规的扩容,百度还使用专有硬件计算(特定CPU或者GPU、FPGA等硬件),处理大规模AI计算需求;准备最大规模硬件资源,处理十亿级别并发需求。据说整个系统在内部都是全自动扩容缩容,数万台机器,相应每秒数千万的请求,并支持快速扩展支持更多请求处理。
百度的技术并不是天上掉下来的,而是百度大数据、云计算、人工智能技术多年发展积累出来的。百度在硬件上能够提供专用硬件计算,是因为百度云服务本身就提供的GPU和FPGA专用服务器,百度能有全自动扩容缩容技术,是因为百度云本身就提供弹性伸缩功能。百度云的积累是百度能够应对春晚红包的数据爆发的技术技术。
值得一提的是百度并不只是靠计算能力硬抗,百度有小程序的技术优势。百度这次的摇一摇红包和视频红包等都采用小程序开发,用小程序技术支持更灵活的开发和预加载机制,不仅能够应对更大流量更大并发,降低硬件资源消耗,提升效率,还有更好的用户体验。
在用户比往年多、玩法比往年多、AI玩法增加计算压力的地狱级别的高压环境下,百度的春晚红包没宕机,闷声搞技术总是没错的。