AFAIK,症结暴露了月度总量和 28 天滚动平均值。Bigquery 按来源提供聚合,可以使用 API 获取 url 级别。
https://web.dev/chrome-ux-report/#crux-api
到目前为止,我知道的唯一方法是使用 webvitals JS 库检测页面并使用分析工具。这在这里得到了很好的描述:https ://web.dev/vitals-ga4/
还有另一种方法来获取 url 级别的每日数字吗?例如像 bigquery 和 API 这样的被动式?
AFAIK,症结暴露了月度总量和 28 天滚动平均值。Bigquery 按来源提供聚合,可以使用 API 获取 url 级别。
https://web.dev/chrome-ux-report/#crux-api
到目前为止,我知道的唯一方法是使用 webvitals JS 库检测页面并使用分析工具。这在这里得到了很好的描述:https ://web.dev/vitals-ga4/
还有另一种方法来获取 url 级别的每日数字吗?例如像 bigquery 和 API 这样的被动式?
被动获取任意日期和 URL 的 CrUX 数据的唯一方法是查询当天的 API 并保存结果。
有一些解决方案,例如使用带有 Apps 脚本的 Google Sheet 每天自动查询 API 以获取一组 URL,并将结果写入工作表。
几年前我写了一个演练来描述这个过程。它指的是旧版本的 PSI API,但我已将使用最新 CrUX API 的脚本的更新版本添加到GitHub 上的 CrUX 存储库。