自动化 Web 性能优化分析方案

  • 2019 年 10 月 7 日
  • 筆記

本文首发于政采云前端团队博客:自动化 Web 性能优化分析方案 https://www.zoo.team/article/performance-detection

在构建 Web 站点的过程中,任何一个细节都有可能影响网站的访问速度。如果开发人员不了解前端性能相关知识,很多不利网站访问速度的因素会在线上形成累加,从而严重影响网站的性能,导致网站访问速度变慢、用户体验低下,最终导致用户流失。页面性能对网页而言,可谓举足轻重。因此,对页面的性能进行检测分析,是开发者不可忽视的课题。那么我们如何对页面进行监控分析及性能评判?对性能评判的规则又是什么样的呢?

从技术方面来讲,前端性能监控主要分为两种方式,一种叫做合成监控(Synthetic Monitoring,SYN),另一种是真实用户监控(Real User Monitoring,RUM)。

  • 合成监控,就是在一个模拟场景里,去提交一个需要做性能检测的页面,通过一系列的工具、规则去运行你的页面,提取一些性能指标,得出一个性能报告。
  • 真实用户监控,就是用户在我们的页面上浏览,浏览过程就会产生各种各样的性能数据,我们把这些性能数据上传到我们的日志服务器上,进行数据的提取清洗加工,最后在我们的监控平台上进行展示的一个过程。

前者注重“检测”,后者注重“监控”。

下文将从多个方面,向大家介绍政采云前端 ZooTeam 的 Web 性能优化分析系统—— “百策”,是如何采集页面性能数据,并通过一系列计算加工,产出页面性能报表的。

百策,取名自历史人物魏征。魏征,字玄成。唐太宗李世民的谏臣,因敢于直谏,被称为诤臣。因多次指出唐太宗李世民的过错并能提出有效政策,因为被称为 “魏百策”。

如何采集页面性能数据

百策系统采用了上文提到的 “合成监控” 的方案,得到了一组与宿主环境无关的性能数据。说到合成监控方案,当属 Google Chrome 团队出品的开源自动化分析工具 Lighthouse。

Lighthouse 的工作流程有几个主要的步骤。部分步骤发生在浏览器中,其余的步骤由 Lighthouse 运行器执行。

Lighthouse 工作原理

下面是 Lighthouse 的组成部分:

  • 驱动 和 Chrome Debugging Protocol 进行交互。
  • 收集器  使用驱动程序收集网页信息。最小化后处理。收集器的输出结果被称为 Artifact
  • 审查器Artifact 作为输入,审查器会对其运行 1 个测试,然后分配通过/失败/得分的结果。
  • 类别   将审查的结果分组到面向用户的报告中(如最佳实践)。对该部分加权求和然后得出评分。

简单来说流程就是:建立连接 -> 收集日志 -> 分析 -> 生成报告。

而我们的百策系统是在 Lighthouse 的基础上,进行了部分功能的定制和创新。

区别于 Lighthouse 的功能

1)使用 Puppeteer

Puppeteer 是一个 Node 库,它提供了一个高级 API 来通过 DevTools 协议控制 Chromium 或 Chrome。相比较 Selenium 或是 PhantomJs ,它最大的特点就是它的 DOM 操作可以完全在内存中进行模拟,即在 V8 引擎中处理而不打开浏览器,而且 V8 引擎 Chrome 团队在维护,会拥有更好的兼容性和前景。

运行下面这段代码就能获取到视窗可视区域的宽高:

const puppeteer = require('puppeteer');    (async () => {    const browser = await puppeteer.launch();    const page = await browser.newPage();    await page.goto('https://example.com');      const dimensions = await page.evaluate(() => {      return {        width: document.documentElement.clientWidth,        height: document.documentElement.clientHeight      };    });      console.log('Dimensions:', dimensions);      await browser.close();  })();

Lighthouse 的方案是使用更底层的 DevTools 协议和浏览器交互,我们选择 Puppeteer 是因为其更简单,封装的一些常用的接口足够满足我们的需求。

2)访问页面前模拟登录

我们不仅需要检测可匿名访问的前台页面,也需要检测登录后才能操作的后台页面。所以在检测前,我们需要增加一步登录操作。当然这个用户名密码也是可选的,当检测到这个 URL 需要登录时,才会提醒用户输入用户名密码。

3)收集到数据存入数据库

我们将每一次的检测数据保存入库,对数据进行整理,获取页面性能变化所呈现的趋势,为支持后续的统计分析提供数据保证。

改造之后的流程是:建立连接 -> 登录检测 -> 收集日志 -> 数据入库 -> 分析 -> 生成报告

如何分析页面性能

定制各项指标

系统设计初期,我们拟定了一系列性能指标的权重和阈值:

Lighthouse 也制定了很多性能指标,譬如:

  • uses-webp-images:采用新一代格式提供图片
  • dom-size:DOM 节点总数
  • network-requests:页面加载完成时的请求数
  • ……

除此之外我们定制了更多的特色指标,譬如:OSS 图片是否使用了压缩后缀。

由于公司的图片都是放在阿里云 OSS 上的,阿里云 OSS 提供了很方便的优化图片体积的方法,就是给图片的末尾加上类似参数 ?x-oss-process=image/resize,w_187/quality,Q_75/format,webp,理论上放在 OSS 上的图片都需要添加压缩后缀。为什么说是理论上呢?因为我们发现如果图片上传 OSS 前,事先经过了其他压缩工具的压缩,再添加压缩后缀后,图片的体积变化不大,甚至会出现负增长。所以我们调整了评审算法,不再是简单地检查图片是否增加了 OSS 后缀,而是比较当前图片的体积与添加 OSS 压缩后缀后体积的差值是否超出比例。

定制检测模型

检测系统试运行一段时间后,我们发现并不是所有的指标都适用于所有类型的页面。譬如我们的前台页面加载图片很多且对图片分辨率要求较高、而后台页面图片则比较少。我们既有传统的后端渲染 + jQuery 类型的页面、客户端渲染 React 页面、也有经过预渲染的 Vue 页面。

将所有类型的页面按同一标准进行检测显然不太合适,所以我们引入了 检测模型 的概念。我们根据页面所属的类型,按照对应检测模型进行性能检测。一个检测模型可以关联多个指标,并可以配置指标权重和级别。

权重越大扣分越多,级别分为 error 和 warning,其中 warning 级别的扣分项不算入总分中,譬如请求是否使用 Gzip 就是,因为这一项是前端无法优化的,需要推动服务端去改进。

计算页面评分

提供优化建议和趋势

优化建议

针对每项扣分的审查项,我们都提供了详细的扣分原因,以及对应的解决方案:

页面性能趋势变化图

除了开发新的功能,我们还积极地对老页面进行重构,为了分析重构前后的收益,我们还提供了查询历史数据和变化趋势的功能:

总结

百策系统为前端页面提供性能优化分析服务,结合行业方案及业务场景的差异性,完善符合公司业务情况的最佳实践,百策系统制定了一套 Web 页面性能的检测标准,通过页面检测及模型分析,发现页面中请求耗时过长、请求资源过大、页面结构不合理等影响用户体验的问题,并针对问题提供相应的优化建议,帮助开发者产出渲染速度更快、资源占有更少、体验更好的页面。