域名频道资讯站
我们一直在努力制造惊吓

昨晚发9亿红包的百度经历了什么?

猪年春晚,百度提供了 4 轮 9 亿的红包。每轮活动,用户的任务都不相同,有的去摇一摇、有的去feed流中搜索、还有进入小程序或小度商城。涉及百度数十个产品、百多种用户场景。再加上新增的 AI 玩法,这给百度 APP 带来了高并发、大流量,给百度云的服务器、带宽等基础设施带来巨大冲击。

百度云方面称,其面临了“三大挑战”:临时用户登录量极大,瞬间出现巨大流量峰值,短期资源需求量巨大。稍有支持不力,都可能导致用户打开百度 APP 缓慢、无法登录自己的账号、点击界面无反应,甚至出现白屏,更别说参与抢红包大战。

昨晚发9亿红包的百度经历了什么?

在摇红包上,倒是没有什么卡顿的经历,只是在热门时间点的“领钱”一项上,无法实时统计抢到的红包数额,除此之外,整个摇红包过程比较流畅。

为了保障摇红包的流畅度,百度称,百度技术部门在从项目启动到上线的 30 天内,展开实施产品运营优化、数据库优化、智能调度、技术设施运维等全方位应对方案,这与编辑了解的相关电商“双十一”购物节的准备周期有类似之处。

不过,由于春晚红包项目的特殊性,留给百度的时间似乎更少。

百度云透露,对于负责数据中心机架供应、服务器扩容和网络建设的百度系统部,很多项目甚至要求 3 周内完成。数千万用户短时间冲击登录系统的难题,对于百度云短信平台来说,也只有 20 多天的解决时间。比如,百度在北京顺义华威机房于 8 小时内完成了 10000 台服务器的物理上架,16 小时完成了自动化上线交付业务使用,在 3 周内完成了 IDC 网络和 CDN 资源建设,建设量相当于 2018 年全年的任务。

他们还做了些什么?

1.面对临时用户登录量极大的难题,百度云 20 天内将短信承接能力提升至少数十倍,还与运营商合作,在云上布局一键登录功能,简化登录流程、减轻服务器压力。

2.对于红包福利活动中出现的小度商城,提供存储、计算等技术支持。

3.工程师对用户刚登录 APP 时的内容加载进行优化,并通过智能调度系统,依据用户行为的不同计算、调度早已准备好的冗余资源,增加系统容量,合理分配带宽。

4.为了应对短期资源需求量巨大的难题,百度在全国各个地区提前规划和布局了多个数据中心集群,确保机架位资源充足供应,机房动力环境安全稳定运行;构建弹性供应链,应对业务陡增的刚性需求,保障服务器资源及时、高效交付;构筑敏捷高效的自动化处理平台,灵活调整并发限制。

有意思的是,在春节期间,中国网络还存在一个特殊的迁徙现象。很多网民会从一线城市回到三四线城市。这使得流量结构发生变化。百度春晚技术保障项目管理团队根据往年春节用户迁移路线,提前规划好了不同地区的所需要的网络资源,其调度系统在分钟级别上感知不同地区资源紧张程度,并进行相应的资源调度和补给。

5.应对潜在的黑灰产威胁。每逢活动,“抢钱”的黑灰产特别多,为了防止黑灰产浑水摸鱼,百度称,此前和与运营商形成联合预案,预防DNS攻击,并通过猎鹰监控与运营商刷新DNS,防止 DNS 劫持,针对四层攻击(SYN Flood、ACK Flood、UDP Flood)等,实行 GTC 流量调度、智云盾发现、运营商黑洞、清洗(UDP)策略等,过滤恶意用户。

瞄准AI 品牌与B端客户的秀肌肉

百度花了这么多人、钱、力拿下以及保障 2019 年春晚红包项目,究竟是为了什么?

前身为手机百度的百度 App 目前成功跻身 App Store免费总榜第一,在各种红包活动推广中,也向全民推出了百度旗下的多款应用。

但这并不是唯一目的。

在百度云方面给提供的资料上发现了这样一段话:“复盘百度春晚红包项目,我们发现,领先的技术架构,创新的解决方案,执行力高效的技术保障服务团队,帮助百度扛过了春晚炼狱。这三大能力的结合,对百度云的 AI to B 战略同样至关重要。”

“炼狱”一说对昨晚彻夜加班、提心吊胆的百度程序员而言,确实非常生动。这次发猛力背后,显露出来的是百度云透过 C 端,对 B 端客户的“秀肌肉”,而百度的 AI 音箱作为专项奖品,成为春晚四轮红包的其中一轮主力,百度强化其“AI”品牌的目的不言而喻。

昨晚发9亿红包的百度经历了什么?

相关文章:

百度App春晚互动208亿次 送出9亿现金红包

2019春晚百度App日活破3亿 百度系App霸榜App Store

本文素材来自互联网

赞(0)
分享到: 更多 (0)

中国专业的网站域名及网站空间提供商

买域名买空间