问题标签 [performance-measuring]
For questions regarding programming in ECMAScript (JavaScript/JS) and its various dialects/implementations (excluding ActionScript). Note JavaScript is NOT the same as Java! Please include all relevant tags on your question; e.g., [node.js], [jquery], [json], [reactjs], [angular], [ember.js], [vue.js], [typescript], [svelte], etc.
python-3.x - 在 pythons 脚本中计算每秒请求、吞吐量和延迟
我想计算 API 的性能指标。
我取得了什么成就?
我能够计算我的 API 的周转时间、经过时间、错误率等指标。
我想达到什么目的?
我希望能够计算我的应用程序上每个 API 的每秒请求数、吞吐量和延迟。
我试过什么?
我目前从每秒请求的摘要 json 中计算每秒的记录数。我也浏览了这个链接,但有很多参数我无法事先计算。
我的场景是这样的:
- 并发用户数 - 50
- 持续时间 - 1 小时。
- 请求类型 - GET
50 个用户连续 1 小时执行 GET 请求。产生 50 个线程,每个线程调用 GET API 最多 1 小时。
任何人都可以帮助提供可以使用的 Python3 示例 Python 脚本或模块吗?
performance - vtune 测量中的函数 CPU 时间可加性
假设我有以下调用结构:
funcA() -> funcB() -> funcC()
funcB() -> funcC(), funcD()
在 VTune 结果(带有热点的 uarch-exploration 结果)中,显示了各个函数的 CPU 时间。我的问题是 CPU 时间是否本质上是“加法”的?即results中A的时间还包括第一行B和C的执行时间,那么results中B的时间是否也包括第二行C和D的执行时间?
如果不是,请确认热点分析是否报告B的执行时间=第一行B的执行时间+第二行B的执行时间?
javascript - TensorFlow.js 预测时间是第一次试用和后续的差异
我正在测试加载 TensorFlow.js 模型并尝试测量预测需要多少毫秒。例如,第一次,预测值大约需要 300 毫秒,但从第二次开始,时间减少到 13~20 毫秒。我不是从模型加载中计算时间。我只计算模型加载后的预测值。
谁能解释为什么预测价值的时间会减少?