h5深度优化实战案例:手机qq hybrid 的架构如何优化演进? 原文标题:70%以上业务由h5开发,手机qq hybrid 的架构如何优化演进?
随着前端开发的兴起,qq也逐渐演变为web与原生终端混合的开发模式。得到web动态运营能力的同时,qq也在交互响应速度、后台服务压力、海量用户集的带宽冲击等方面,受到了更多的挑战。在快速的web运营节奏下,必须保证嵌入qq的第三方业务也始终处于一个高质量的服务状态。针对这些问题,qq团队除了采用动态cdn、后台渲染等全栈手段优化体验,也构建了围绕速度、成功率、页面异常等维度的监控体系来保障服务质量。
写在前面首先自我介绍,我叫涂强。我于2005年加入腾讯,那个时候还不流行移动端、hybrid等开发。我当时主要开发pc版本的qq,后来负责pc版qq ui引擎的时候做过一些尝试,即在pc客户端上集成浏览器内核,那个时候做了一些h5和native混合开发的框架性工作。之后我加入了腾讯qq会员团队,负责qq会员在移动终端上的技术,同时也有很艰巨的任务:维护手机qq中的所有h5 hybrid开发的框架,即webview组件的技术工作。
言归正传,现在主流的hybrid还是h5 + native,h5开发对现在移动终端的重要性不必多提,但h5在native中很明显的问题大家都看得到,比如打开应用的时候要等很久的页面loading,loading时用户看到转菊花的界面很可能就流失掉,这也是产品经理不想看到的状况。还有一点是每次打开h5都涉及到网络交互、文件下载,这些操作会消耗用户的流量,如果流量消耗大用户也会不高兴。
今天给大家分享的内容主要是介绍qq会员团队如何在页面打开时间以及用户流量方面所做的优化,分别对应sonic和reshape的两个自主技术框架。
传统页面的动静分离所有的技术选型与框架都是要结合业务形态来选择,大家对qq会员的业务形态可能有简单的了解。手机qq中可以说有大概70%以上的业务由h5开发,像会员的主要商城:游戏分发中心、会员特权中心和我现在负责的个性化业务的商城等等。这些商城特点很明显,它们不是ugc生成的页面,是产品经理在后台配置的内容,比如在页面上可以看到的表情和主题等等。
这些页面相对传统,在最初的时候,一个传统的h5页面为了提升速度和体验会做一些动静分离的优化,比如页面顶部的banner以及下面我们称作为item的物品区域,这些区域的数据可以由产品经理自由编辑随时更换,我们会通过页面loading之后发起cgi请求,从dataserver获取数据,然后再拼接起来。
这里的流程大概如下,用户从click开始,到launch webview,webview去加载cdn上的html文件,页面loading起来后才会去获取json,为了加速这个过程可能会用到localstroage做缓存,这整个过程是非常传统的静态页面加载过程,相对比较简单。
但上述方案有一些问题,比如我们在launch webview的时候网络处于空等状态,这会浪费时间。我们团队内部统计了android机器launch webview大概需要1秒以内(因为手机qq是多进程的架构,webview生存在另一个进程内部,launch一次webview除了进程loading还有浏览器内核的加载)。
其次,发布在cdn上的静态页面内部不包含item数据,所以用户第一眼看到从cdn下载的页面,里面的banner区域和item区域处于一片空白,这对用户体验也是很大的伤害。
还有一个问题,页面loading起来要refresh当前的dom,即拉取json之后拼接dom结构再refresh,我们发现在一些qq用户所使用的低端android机器里,这个执行也会非常消耗时间。
静态直出+离线预推面对这些问题我们大胆采取了一些技术手段,我们称之为静态直出+离线预推的模式。首先我们把webview的加载和网络请求做了并行,我们所有的网络请求并不是从webview内核发起request,而是loading webview的过程中,我们通过native的渠道建立自己的http链接,然后从cdn和我们称作offlineserver的地方获取页面,这个offlineserver也就是大家听说过的离线包缓存策略。
我们在native会有offlinecache,发起http请求的时候首先检查offlinecache里有没有当前html缓存,这个缓存和webview的缓存是隔离的,不会受到webview的缓存策略影响,完全由我们自控。
如果offlinecache没有缓存才会去offlineserver去同步文件,同时也会去从cdn去下载更新。我们在cdn上存储的html已经把banner和item等所有的数据打在静态页面里,这个时候webview只要拿到html就不需要再做refresh和执行任何js,整个页面可以直接展示出来,用户也可以进行交互。
这个方案首先会节省webview launch的时间,这段时间可以直接网络传输,另外如果本地有offlinecache甚至也不需要网络传输请求,相当于完全加载一个本地页面。但很多时候我们为了保险起见,还是加了页面loading,然后做refresh的操作防止数据的不一致性。
这套机制上线后效果不错,但真的去实施这种h5加载模式会遇到一些坑,例如产品经理配置的banner图片和item数据可能会存在多份数据版本不一致的情况。
产品经理肯定是在dataserver上配置最新数据信息,但cdn上的页面内置的数据有可能仍处于上一版本,更差的情况是离线包服务器和offlineserver生成的html又是另外一个版本。当用户本地的缓存和server同步不及时即常见的缓存刷新问题,很有可能存储的数据又是另外一份。
所以这套系统刚开始灰度试用的时候,产品经理很快就找我们吐槽:打开页面时看到的是一份数据,过了一秒页面刷新后看到的内容又不一样,而且每次进入页面都会发生这种情况。
如何统一数据如何快速把四个版本的数据全部统一?我们针对静态直出这种模式做了小型的自动构建系统,产品经理在管理端配置数据要同步dataserver时,我们会立刻启动我们内部称为vnues的构建系统。
这套系统是基于node.js搭建的,会把开发所编写的代码文件和ui素材图片等等数据实时生成最新版本的html,然后发布到cdn以及同步到offlineserver上,这可以解决cdn的文件与最新数据不一致的问题。
但离线包缓存是放在用户手机上的,我们如何最快速地把用户手机上的离线缓存也更新起来?大家可能会这么做:qq客户端每次登录上来把offlineserver最新文件下载回来就好了,但这个方案会遇到巨大的流量挑战。
qq现在每天的活跃用户好几亿,登录峰值差不多十几万每秒,即使一个100kb离线包的更新,发布一次动辄就需要几百gb的带宽,无论从成本还是技术层面都不是我们能接受的事情。
我们offlineserver内部分为流控和offline计算两部分。当一个页面的所有资源需要进行离线包计算打包的时候,offline计算这部分除了把所有的资源打包,内部也会存储之前所有的历史版本,同时根据历史版本和最新版本生成所有的diff,即每个离线包的差样部分。
这个方案也是根据我们业务形态而定的,因为每次产品经理更新的页面数据并不会太多,基本是几kb到10+kb的范围,所以我们没有必要每次离线包的更新都让用户去下载全量的包。
当qq用户登录后,每次都会询问offline流控server看有没有最新的包可以下载,如果当前流控server统计的带宽在可接受的成本(目前暂定为10gb到20gb的空间),当cdn的带宽撑得住的时候就会把最新的diff下发给客户端,这样就做到离线包一有更新时客户端能以最小的流量代价得到刷新。
数据以及效果通过这套系统,我们只花了十几gb的带宽,就把整个bg所有h5业务的离线包覆盖率维持在大概80%到90%。从这个工作中我们也发现一个非常反常规的事情,即大家以为离线包预推会非常消耗带宽,但其实只是偶尔预推才消耗大量带宽;如果长年累月不停地推送,实际上对带宽的消耗非常小,因为时时刻刻都保持在差量下发的状态。
做了这个工作后我们采集了现网数据,静态直出和传统页面这两种模式对比非常明显。下图页面耗时部分,由于静态直出页面不需要任何js执行,只需要webview渲染,所以页面耗时静态直出相比传统页面降低了大概500毫秒到1秒左右。
这里有趣的现象是离线包的性价比问题,可以看到传统页面使用离线包可以在网络耗时部分节省700多毫秒,但静态直出这种模式使用离线包只能节省300毫秒左右,这是因为使用静态直出在网络过程中所依赖的外部css和js都已经直出到html内部了,不需要额外的网络请求,所以其本身网络耗时有所减少,这时使用离线包的收益开始逐渐下降。
这里可能有疑问,为什么静态直出在离线包的情况下网络耗时还需要800多毫秒,本地有缓存不应该是零耗时吗?
我们统计的网络耗时是从webview load url开始到页面首行这段时间,实际上包括一部分页面加载,webview内核的启动,网络组件和渲染组件的加载,所以耗时比较高。
这里肯定也有优化空间,但当我们的客户端团队正要优化网络耗时这部分的时候,我们的业务形态变了。之前是产品经理配置什么页面就显示什么,所有用户看到的内容都是一样的,现在产品经理说每个用户进入到商城首页看到的内容要完全不一样。
以下图为例,像左边首页的内容是随机推荐的,右边实际上是通过机器学习根据用户过去表情发送的行为习惯和我们后台的物品做计算匹配,根据用户的喜好行为而推荐的内容。
每个用户进来看到的内容都是不一样,那么静态直出这种模式行不通了,因为我们不可能把所有用户的页面都在后台生成然后发到cdn上,然而这种模式也有很简单的办法来解决。
动态直出我们并不在cdn上存储html,而是后台node.js服务器上动态拼接出整个html文件,数据来源是从dataserver去拉取。
这种模式解决了产品的需求,但引入了新的问题。webview获取html要请求node.js,node.js要进行后台页面拼装,中间的网络耗时和后台运算耗时比我们想象中要大。在这个过程中,整个页面是无法渲染的,用户进入我们商城首页则看到一片空白,产品经理同样无法接受,用户也不买单。
另外这种模式下几乎无法利用webview本身的缓存,因为后台直出同样在css/js已经全部都在后端执行,webview很难将一个纯粹的静态html全部缓存下来。为了解决上述问题,我们引入了动态缓存的机制。
动态缓存同样我们不让webview直接访问我们的node.js服务器,我们在这中间加上之前提到地类似offlinecache的中间层sonicbridge,这个中间层首先会从node.js服务器下载完整的html给webview,同时会把下载回来的内容在本地完整地做缓存。
我们之前是全网所有用户缓存同一份html,现在修正为全网用户缓存的内容都是从真实server里拉回来的页面。
当用户第二次进入页面时,sonicbridge会优先把本地缓存的页面提交给webview,用户进入页面不需要等待网络请求就可以看到内容,这对用户侧在速度上的体验提升比较大,但它又引入了另外一个问题。
实际上用户每次打开webview看到的内容都不一样,node.js每次返回的数据都是最新的,因此拉回来的数据我们必须让webview进行reload,这给用户的体验是:明明已经打开了本地缓存好的html并且看到内容,但一操作页面却整个reload了。在一些低端机型上webview reload非常耗时,用户能很明显感觉到整个webview h5页面白屏一下,然后才刷新出新的内容。
结合前面提到的静态直出局部refresh部分dom的经验,我们可以减少网络传输量和减少提交页面的数据量。我们首先做的事情是减少网络传输量,避免refresh的时间太靠后。
减少传输数据我们改变了node.js组html的协议,当sonicbridge在第二次请求数据的时候,node.js服务器并不会返回整个html给sonicbridge,而是返回给我们称为data数据的部分。
拿到data数据之后,我们和h5页面做了约定,由native侧调用页面的固定刷新函数,并传递数据给页面。页面会去局部刷新自己的dom节点,这样即使页面需要刷新也不会reload整个页面。
具体从数据内容的流程上看,首次sonicbridge加载页面返回的仍是完整的html,同时会返回我们称为template-tag的id,这个template-tag会标记这个页面中静态不变的那部分hash值,这措施是为了控制缓存。在返回的html中我们会也有一些标记,比如sonicdiff-banner,这个banner决定了它的刷新id是什么。
当第二次加载返回的数据就没有前面看到的整个html,只会返回大概37kb的数据,这个data实际上就是一个json,但它定义了前面对应例如sonicdiff-banner的dom结构。为了节省h5中执行的代码,我们直接在json中把dom节点代码拼好,这样页面只需要做id的匹配和刷新。
这里37kb的传输数据很难避免,我们观察到不同业务的刷新数据量还不一样。能否能再减少一些提交给页面去刷新的数据量呢,毕竟产品经理每次修改的数据也不会很多。
减少提交页面数据我们在soniccache这一层除了前面提到的我们会缓存完整的html、template,还会把数据提取出来做datacache。
template是在首次访问的时候,根据sonicdiff里的id信息,把所有可变的数据剔除掉剩下的页面框架。用户二次打开时只要根据返回的数据,在客户端本地和template做merge拼接就可以得到完整的html。
我们把每次的datacache缓存下来后,对数据也做了差量,比如这一次请求返回的是37kb的数据,上次cache的也是37kb的数据,我们会判断内部真正变化的到底有多少,然后只把差量的部分交给html刷新,这样在大部分场景下我们的页面只需要处理大概9kb的数据就能刷新整个页面。
有了cache后用户在本地打开的速度非常快,差量数据的传输也使得用户刷新等待的时间减少了,最后加上这种数据提交时的diff使页面刷新范围也得到大幅的减少。
整个sonic模式流程如下,看上去比较复杂,但基本原理就是通过bridge桥接把请求回的html分模版和数据进行缓存。
这里可能有疑问,前面静态直出花力气做的offlineserver和离线预推策略,在这里还有没有用?事实上动态页面和之前提到的静态页面离线缓存机制我们仍在使用,因为我们业务页面还有大量公用js,比如qq提供的js api封装,还有一些共用的css也是通过离线包策略做的预推,这也是大家每次登录的时候都会进行的下载。
数据以及效果完成这种模式之后数据效果相对明显,首次加载和普通的http加载性能是差不多的,但用户第二次打开页面时,通常只需要1秒的时间就能看到页面,这1秒钟还包括客户端launch进程和webview的开销,同时我们加载速度不再受用户网络环境的影响,不管是2g还是4g加载速度都接近一样。
而且还带来一个好处,如果用户的网络比较差,比如经常抖动连接不上,因为我们本地有缓存,因此就算用户当前处于断网状态我们的页面也能打开。
这里没有提到模板更新的场景,模板更新是指我们抽取出来的template在我们server是有可能动态变化的,这个时候的加载流程和我们前面提到的就不太一样了,当template有变化时,还是按照原来走html reload页面的流程,这里的耗时相对偏高,但我们统计发现大部分用户还是落在数据刷新也就是二次打开的状态。
是否使用持久连接在做h5的提速优化时,大家很容易想到我们是否要利用持久连接去避免访问服务器的connect、dns、握手之类的耗时,像qq这种客户端它跟后台server是有持久化的连接的。假如用这个连接来向后台服务器请求html文件并交给webview,会不会比临时建立一个connect请求更快呢?我们只需要搭一个反向代理服务就可以从qq消息后台访问我们node.js服务器,这个流程是可以打通,但是我们评估认为这种模式未必适合所有的场景。
确实是有一些app利用持久连接这种通道去加载页面,但在手机qq比较难行得通,因为手机qq客户端与sever的持久连接通道是一个非常传统的cs架构,它发送的是socket package,每次需要发送一个请求包,收到应答之后才会继续下一个请求。
这种应答机制决定了它每次都需要一个等待的过程,而且socket package的约束造成了每次传输的数据包的大小受到限制,像我们30+kb的数据很有可能要拆成五六个数据包,虽然是利用了持久连接节省了connect耗时,但和server多次来回通讯反而把整个耗时加大了。
另外,从node.js服务器返回的数据是http流式的,webview不需要等待整个html加载完成后才能进行渲染和显示,只要拿到传输中的first byte就可以开始进行document的解析以及dom的构造。
如果要使用持久连接,我们很有可能要经过客户端的加密解密以及组包等步骤,并且要等到整个html下载完成之后才能进行显示,我们认为这个时间反而拖慢了性能。
qqhybrid架构经过上述的介绍后,大家对qqhybrid可能有了大概直观的印象:1. 我们在webscope的前端开发同学做了一部分工作;2. 我们的native层终端开发同学做了bridge桥接,3.我们后台的同学做了很多的自动集成和offlineserver推送等工作。该部分架构如下:
接下来我将介绍架构图右边关于页面流量的部分。我们统计过各业务中关于流量的分布,如下图,我们可以明显看到大部分的流量都消耗在图片资源上,但我们做这个分析时也曾经有怀疑,是不是业务特性决定了我们图片消耗是最多的?手机qq其他h5业务是不是也这样?
春节红包的流量分析恰好我们有了一次机会,在2016年春节时手机qq做了一次几乎所有业务都有参与的活动——春节红包,大家可能还有印象在2016年春节晚上时不停戳屏幕领红包的操作。这种全民狂欢的背后带来了巨大的流量压力,每秒钟大概给用户发出30万左右的礼包,引导用户的web流量大概每秒钟会有十几万次h5页面的打开,当时评估的流量峰值超过1tb。
我们分析了里面的图片流量,确实占据了接近一半的水平,有一部分我们已经走离线包预推的方式提前下发到用户的手机中,但在活动期间现网的图片流量仍超过了200gb。
流量并不是简单花钱向运营商买就能解决的问题,春节的活动我们几乎遇到了单域名下流量接近200gb的情况,当时cdn的架构已经快扛不住了。
我们都认为这里大有可为,如果图片流量能节省的话,带宽成本能够降低。用户侧所消耗的网络流量和手机电量等等体验都能更好,所以我们团队check了有关图片格式方面的新东西。
sharpp的应用大家都比较熟悉webp,而且android对其支持也比较好,而qq团队内部自己研发了叫sharpp的图片格式,在文件大小上能比webp节省10%左右的体积。下面是抽取我们cdn服务器上已有图片进行的数据比对。
图片体积是占优的,但解码速度方面呢?我们分别使用了高、中、低端的机型分析,很不幸sharpp确实会比webp甚至比jpg要慢一点,但幸运的是我们业务的图片尺寸还不算太大,页面中多花几十毫秒也能接受,相比节省等待网络的时间我们觉得这是更有利的。
于是我们准备在手机qq h5业务中推广sharpp格式,但推广新图片格式会带来很大的应用成本。首先大部分的图片链接都是写死在代码里面,而且页面并不知道移动终端有没有能力去解码sharpp的格式。
难道h5页面要针对不同的手机qq版本去准备不同的html?或者图片资源发布到cdn上时生成两个不同格式的链接,然后在h5内部根据终端版本选择不同的链接?这个开发成本当然是不可接受的。
除了图片格式的问题,我们发现用户的不同机型会存在流量浪费的情况。我们的ui设计通常都是针对iphone6的屏幕尺寸做的,默认是750px的图片素材。小屏幕的手机,比如640px和480px,同样是下载750px的图片,然后在渲染的时候进行缩小。
这样实际浪费了非常大的带宽,所以我们思考cdn是否能根据用户手机屏幕尺寸来下发不同格式的图片。
reshape架构这种屏幕自适应的策略也面临近似私有格式的成本,因为cdn也不知道手机的情况,最后我们提出了reshape的架构,从图片下载完整的环节来看,大概可以分成4个层级:
最底层我们称作cdn源站,这里我们部署了图片格式转换工具,业务方不需要care jpg制作出来后再生成sharpp还是webp,只需要把图片发布在cdn源站上就能自动转成对应的格式和屏幕分辨率;
往上是用户手机接入的cdn节点,部署全国各地用于加速和缓存文件的server。
我们和浏览器团队做了合作,把sharpp的解码格式放在浏览器内核中,这样最上层的业务不需要关心当前的浏览器是否支持webp还是sharpp。
在打开页面的时候,webview会自动带上终端的屏幕尺寸以及支持哪些图片格式给cdn节点,cdn节点再从源站获取最新的图片,源站这个时候有可能已经离线或实时生成好对应的图片了。
拆开来看webview这一层,除了集成sharpp的解码库之外,其他事情相对简单,例如:
在请求header里面额外添加了字段,比如user-agent里添加了“pixel/750”,如果是480px的机器这个值就变成480;
在accept里增加了sharpp的协议头:image/sharpp
在源站里会存储3*3数量的图片,每一张业务图片提交给源站发布的时候,都会生成9张图片。cdn节点会根据webview的请求,在回源的时候向cdn源站请求对应类型的图片,但对于业务和webview来看请求的还是同一个链接,这样手机qq所有的h5页面都不需要任何一行前端代码的修改,就能享受图片格式所带来的尺寸自适应和流量节省。
以下是更形象的过程,在accept增加字段,然后返回对应的图片:
这个技术并不复杂,我个人认为不存在太深的技术门槛,更多的是从客户端、web到cdn后台这整个链条的打通。但过程中我们也踩了一些坑:我们在灰度的时候发现很多ios用户来投诉说页面展示时图片不能展示。
这个让我们非常惊讶,因为当时还没有把这项技术部署到ios上,只是android在应用。我们检查了cdn的代码也没有问题,那为什么会把sharpp的图片下发到ios用户呢?
后来分析发现,中国不同地区运营商之间,会做类似cdn cache的缓存服务。当android用户第一次请求sharpp图片的时候,运营商的server从我们的cdn拿到了sharpp格式链接。当缓存生效期间内,同一个地区其他ios用户上来请求时,运营商发现url一样,直接就把sharpp格式的图片返回给ios用户。
这个问题是我们整体架构上没有去全盘review而踩中的坑,http有个标准的约定可以解决这种缓存问题。在cdn分发内容的时候,通过vary字段指定缓存的时候要去参考accept和user-agent里的字段,我们把这个vary加上之后问题基本解决了。
这个案例给了我们额外的启发。我们现网中,pixel字段有三种取值:480px、640px、750px。我们内部讨论过是否可以把屏幕尺寸直接写在user-aagent里,这样以后android出了一些新的屏幕分辨率我们也能在后台做更好的自适应,为每种机型去生成不同格式的图片。
假如真的这么做的话,会给运营商和我们自己的cdn缓存带来巨大的回源开销。每个分辨率的图片都要缓存一份,例如498px,中间运营商没有这机型的缓存,就会到我们的服务去回源,这样n个屏幕尺寸会给我们cdn带来n倍的回源压力。
数据以及效果言归正传,最后数据效果也是比较明显的,下图是我们在android灰度的效果数据。我们h5业务的图片流量从40+gb下降了20+gb。对于腾讯来说20+gb的带宽不是特别大的成本,但是在春节活动场景下,可以增加近一倍的业务空间。额外带来的好处,是用户看到页面图片所等待的时间相对缩减了,用户侧的流量也节省了一半。
h5快速运营时的稳定性我们解决了页面加载速度和流量消耗的问题时,也开始考虑h5在快速运营下的稳定性问题。相信前端开发都有遇到过某个页面代码一改,其他功能就不正常了的情况。采用hybrid开发很有可能native是要给js页面提供很多api的,客户端小小的改动可能导致js api受到影响,从而导致全网的h5页面功能不正常。
除了功能稳定性之外还有一个很大的问题,我们每天都在发布前端页面,那页面的优化性能如何不被劣化?我们好不容易花了时间把页面加载的性能降低到1秒,会不会有一些前端的修改比如引入更多的外链js/css依赖导致整个页面性能劣化?我们做了一些工具去解决这些问题。
quick test automation这是我们内部称作快速自动化的工具。我们会把前端所有的测试用例集写成自动化测试,然后每天都会把全网所有页面所有的测试用例集跑一遍,检查功能是否正常。
web performance test我们会对web的性能做web performance test的监控,这里我们首要观察的是页面每次打开所消耗的流量,因此会用工具去分析页面中所有加载的图片是不是有些可以转成sharpp但仍然使用了jpg的。有了这套监控,能促使我们团队之外的h5开发者去优化他们的页面。
前端经常提到优化时要减少请求数量等等,这些可以认为是军规的规则,我们都会在测试中进行监管。前面没有详细提到客户端优化的一些方法,但是我们对于webview在客户端启动的耗时也做了一些监控。
前端部署流程我们还有更严格的前端发布流程,所有在测试环境中写好的并且测试通过的代码,如果要发布到正式环境必须要通过qta和wpt的验证,如果自动化测试成功率低于95%则不允许发布。
发布到正式环境之后,我们在外网还有综合评分监控的系统,其首要监控的指标是关于速度的,我们把页面打开的速度拆解为客户端耗时、网络耗时和页面耗时并对它们分别监控。
我们每天都会输出如下的监控报表来观察每天速度变化,这里我们并不单纯关心全网的性能怎么样,我们更关心慢速用户的体验,例如大于5秒的用户最近占比会有多少。
除了这些,h5经常遇到的某些js报错而导致页面不正常,加载过慢导致用户看到白屏的时间过长等等问题,我们对这些都有系统的监控。
集成运营体系除了之前提到的内容之外我们还做了debug平台,许多调试能力已经提前部署在所有手机qq终端。我们可以通过远程命令去检查用户的dns解析情况,命中了哪台server,用户是否受到运营商劫持等等。
写在最后整个qqhybrid的架构基本介绍完了,我们除了性能上的优化,也对cdn上的架构做了调整,也做了运营监控工具。我认为正是有了运营监控系统,才能让我们整个h5和hybird团队能放心大胆地修改页面和发布新功能,同时保证稳定和可靠。
整个过程中也让我们感到hybrid架构并不像以前大家理解的,只是客户端和前端配合的工作就ok了,在整个架构体系中后台技术也发挥了很大的作用。而cdn改造我们也请教了运维团队的支持,qta和wpt中也有测试开发团队的参与。可以说整个体系的建立,是所有岗位并肩作战的结果。
相关文章推荐:
今日h5特效推荐:最近超流行的 h5 下拉上滑动效
php网站性能优化实战:淘宝首页加载速度优化实践
web前端学习路线:web前端开发快速入门