阿里巴巴2016双11背后的技术(不一样的技术创新)

每年的“双11”是阿里技术的大阅兵和创新能力的集中检阅。2016年的“双11”背后,更是蕴藏了异常丰富的技术实践与突破。

历经1个月的编写,最终27篇精华技术文章入册《不一样的技术创新-阿里巴巴2016双11背后的技术》(以下简称《不一样的技术创新》)一书。这27篇“24K纯度”的技术干货,是阿里“双11”八年来技术演进结果的最新展示,凝聚了阿里工程师的智慧和创造力。

所有参与《不一样的技术创新》编写的小伙伴,均参与了2016及历年来“双11”的大促,经历过惊心动魄但酣畅淋漓的“双11”的“零点之战”。我们尽量保持了这些工程师小伙伴文章的原汁原味;我们知道,过多的雕琢和润色反而会破坏文章中知识传递的效果——工程师之间的沟通不需要华丽和精美的文字,只需要那灵犀的一点。

让我们为所有参与《不一样的技术创新》一书编写的小伙伴点赞!不为别的,只为他们这些代表全体阿里技术同学,以及所有中国当下IT工程师勇攀技术高峰的追求精神和其背后不懈的努力点赞!

《不一样的技术创新》内容涉及基础设施、存储、中间件、云计算、业务架构、大数据、认知计算与人工智能、交互技术等技术领域。

在这些领域中,包括:

(1)充分发挥云计算弹性能力,实现资源快速腾挪,支撑交易峰值每秒17.5万笔、支付峰值每秒12万笔的混合云弹性架构;

(2)在双11当天实现万亿级消息流转第三代分布式消息引擎。

(3)交易核心应用容器化,撑起双11交易下单峰值,充分解放资源的超大规模Docker化技术;

(4)支撑全球最大规模在线交易的数据实时和离线计算能力,包括承载阿里巴巴集团核心大数据的离线计算平台,以及双十一保证每秒处理亿条日志的计算能力、毫秒级的计算延迟的实时流计算平台;

(5)阿里人工智能在搜索、推荐以及客服场景下的创新应用,包括人工智能赋能的数千家品牌商家店铺的个性化运营和粉丝会员的精准营销,基于深度强化学习和在线自适应学习的推荐算法创新,以智能+人工模式提供智能导购、服务、助理拟人交互的阿里小蜜;

(6)全球第一个端对端的虚拟购物环境背后的VR技术,全面解读如何解决VR购物三大技术挑战,全面覆盖浏览、下单及支付环节;

(7)揭秘应对前端极限挑战的淘宝直播首屏秒开,以及应用世界级开源跨平台移动开发工具Weex实现双11会场几近全覆盖,实现全网首屏渲染完美践行“秒开”体验;,

(8)所有双11奇迹背后的、基于数据挖掘、机器学习等技术的智能化秒级监控。千万量级监控项,PB级监控数据,亿级报警通知背后的技术。

(9)菜鸟如何打通包裹预测、供应链入库、订单下沉、订单路由调度、电子面单及智能分单,以及末端小件员,捍卫这场十亿级包裹的双11之战。

第一章 基础设施

1.1 万亿交易量级下的秒级监控(免登录阅读)

1.2 双11背后基础设施软硬结合实践创新

1.3 阿里视频云ApsaraVideo是怎样让4000万人同时狂欢的

第二章 存储

2.1永不停止的脚步——数据库优化之路  (免登录阅读)

2.2 AliCloudDB--双11商家后台数据库的基石

第三章 中间件

3.1 万亿级数据洪峰下的分布式消息引擎(免登录阅读)

第四章 电商云化

4.1 17.5W秒级交易峰值下的混合云弹性架构之路(免登录阅读)

4.2 集团AliDocker化双11总结

第五章 业务架构

5.1 内容+:打造不一样的双11(免登录阅读)

5.2 双11交易核心链路的故事

5.3 千亿访问量下的开放平台技术揭秘

5.4 智慧供应链

5.5 菜鸟双11“十亿级包裹”之战

第六章 大数据

6.1 双11数据大屏背后的实时计算处理(免登录阅读)

6.2 双11背后的大规模数据处理

6.3 突破传统,4k大屏的沉浸式体验

第七章 人工智能

7.1 基于深度强化学习与自适应在线学习的搜索和推荐算法研究(免登录阅读)

7.2 颠覆传统的电商智能助理-阿里小蜜技术揭秘

7.3 深度学习与自然语言处理在智能语音客服中的应用

7.4 数据赋能商家背后的黑科技

7.5 探索基于强化学习的智能推荐之路

7.6 DNN在搜索场景中的应用

第八章 交互技术

8.1 VR电商购物(免登录阅读)

8.2 淘宝直播在双11的互动实践

8.3 2016双11前端突破

8.4 Weex 双11会场大规模应用的秒开实战和稳定性保障

8.5 双11晚会背后的技术

时间: 2024-08-05 23:39:36

阿里巴巴2016双11背后的技术(不一样的技术创新)的相关文章

双11 背后的全链路可观测性:阿里巴巴鹰眼在“云原生时代”的全面升级

点击下载<不一样的 双11 技术:阿里巴巴经济体云原生实践> 本文节选自<不一样的 双11 技术:阿里巴巴经济体云原生实践>一书,点击上方图片即可下载! 作者: 周小帆(承嗣)? 阿里云中间件技术部高级技术专家 王华锋(水彧)??阿里云中间件技术部技术专家 徐彤(绍宽)??阿里云中间件技术部技术专家 夏明(涯海)??阿里云中间件技术部技术专家 导读:作为一支深耕多年链路追踪技术 (Tracing) 与性能管理服务 (APM) 的团队,阿里巴巴中间件鹰眼团队的工程师们见证了阿里巴巴基

第一章 基础设施,1.2 双11背后基础设施软硬结合实践创新

1.2 双11背后基础设施软硬结合实践创新 前言 阿里巴巴作为全球领先的互联网综合业务平台,其遍布全球的数据中心中海量IT硬件设备(服务器和网络)承载了世界上最全的业务体系.一方面各种互联网服务种类之广.应用类型之多.对硬件能力需求之差异,另一方面连续7年的双11狂欢节这类世界级的玩法,对于整个集团整体业务.产品.技术体系的挑战虽不绝后,但一定空前.由此要求与之一体两面的基础设施技术能力必须要解决世界级的问题,建设世界级的架构,掌控核心的关键部件技术. 在广义数据中心总体拥有成本(TCO)模型分

第八章 交互技术,8.3 2016双11前端突破(作者:天猫前端团队)

8.3 2016双11前端突破 前言 2016 年天猫前端相比去年有了非常多不同维度的突破,主要可以分为四大类大类: 稳定性.监控 极致的性能优化 业务创新 / 平台建设 技术创新 / 互动 1. 稳定性.监控 商品到每个用户浏览的每个环节都有监控,尤其在针对消费者体验上的 TES,让前端在消费者真实浏览的过程当中也能够有更进一步的分析在不同环境下消费者实际的体验.以及从服务器 Wormhole 渲染层进行了一系列的稳定性.监控. 1.1 Wormhole双11会场稳定性保障 Wormhole承

揭秘天猫双11背后:20万商家600万张海报,背后只有一个鹿班

摘要: 今年双11,鹿班除了继续为天猫淘宝平台提供更好的设计服务之外,首次将人工智能设计能力普惠给到了所有天猫淘宝的商家进行使用.为商家提供智能设计的同时,鹿班对接了淘宝天猫的图片投放平台,所有生成的活动图片能够以最快速最方便的方式进行投放和展示,极大的提高商家的活动操作效率,帮助商家更好的完成好双11各种活动. 还记得去年双11,秋裤厂商带着"五彩斑斓的黑"需求找设计师的故事吗? 现在,已经有超过20万客户把这个AI设计师鹿班带回家. 今年,鹿班除了为天猫淘宝平台提供服务之外,还通过

2016 双11清单,史上最新,赶快下载

下载地址: http://pan.baidu.com/s/1bz5an8 下载地址:http://pan.baidu.com/s/1o8jNIlG

重磅发布 | 《不一样的 双11 技术,阿里巴巴经济体云原生实践》电子书开放下载

2019 双11,订单创新峰值达到 54.4 万笔/秒,单日数据处理量达到 970PB,面对世界级流量洪峰,今年的阿里巴巴交出了一份亮眼的云原生技术成绩单,并实现了100% 核心应用以云原生的方式上云: 双11 基础设施 100% 上云 支撑 双11 在线业务容器规模达到 200 万 采用神龙弹性裸金属服务器计算性价比提升 20%? 这些数据背后是对一个个技术问题的反复尝试与实践.这一次,我们对云原生技术在 双11 的实践细节进行深挖,筛选了其中 22 篇有代表性的文章进行重新编排,整理成书<不

【重磅预告】揭秘阿里双11技术进步历程!

摘要: 对技术而言,每一年的双11都是一场严峻的考验,从被流量冲击得溃不成军,被迫奋起抗击,到现在通过技术的力量不断改写双11的用户体验和参与感,阿里的技术伴随着双11成长起来,强壮起来,自信起来.对各位而言,希望大家可以从书中学习更多,掌握更多. 从2009年到2016年 有一种"买买买"叫双11 你我已熟知 那激动人心的熬夜抢购 那争分夺秒的零点瞬间 -- 还有那刷新不出的页面 和那挤爆了的服务器 -- 八年演进.八年创新.八年突破 这举世瞩目的双11,背后靠什么支撑? 这八年 阿

揭秘双11“某东”背后的架构实战

对于不少开发者来说,成为架构或技术管理者是职业生涯的目标之一,但是如何成为这样的角色却没有统一的教科书,原京东拍拍技术负责人Andy在本次沙龙中将分享了自己在京东的开发和管理经历,主要的经验包含架构知识.电商领域知识和以及沟通能力,如何应对大流量网站系统设计来学习等. 成为架构师需要一个"恰好"的案例   双11是各个电商平台一年中最繁忙的一天,也是系统压力最大的一天.在高流量.高并发的状态下,如何保持交易系统的高可用,无疑是重中之重,而双11也恰恰成为检验架构系统设计的试金石.本次沙

第八章 交互技术,8.4 Weex 双11会场大规模应用的秒开实战和稳定性保障(作者:鬼道)

8.4 Weex 双11会场大规模应用的秒开实战和稳定性保障 前言 Native 开发的诸多亮点中,流畅体验和系统调用是最多被提及的.流畅体验体现在页面滚动/动画的流畅性,背后是更好的内存管理和更接近原生的性能:同时又是 Web 的痛点:资源首次下载.长页面内存溢出和滚动性能.动画性能.传统 web 性能(如JS执行效率).Native 有丰富的系统调用能力,而 Web 痛点在于:W3C 标准太慢,有限的设备访问能力,API 兼容性问题较严重,如 Geolocation 在 Android We