问题标签 [cpu-speed]
For questions regarding programming in ECMAScript (JavaScript/JS) and its various dialects/implementations (excluding ActionScript). Note JavaScript is NOT the same as Java! Please include all relevant tags on your question; e.g., [node.js], [jquery], [json], [reactjs], [angular], [ember.js], [vue.js], [typescript], [svelte], etc.
java - 如何测试需要任务花费未定义时间才能完成的功能
我目前正在开发一个网站并遇到了一些错误。为了修复一些错误,我需要重现它们,以便我可以调试等等。有些错误需要我在有限的时间范围内重复特定的按钮单击/复选框标记组合。即我需要能够向后端发送多个相同的请求,以便在发送请求时不能完成前一个请求的处理。这是重现错误的唯一方法。
现在,我的问题是我的电脑太快了,所以我不能足够快地完成必要的步骤来重现错误。所以我的后端在我发送新请求之前完成了每个请求的处理。
我该如何解决这样的重现问题?- 我正在考虑降低 CPU 的时钟频率,但这似乎只是为了能够重现错误。是否有某种测试框架可以用来帮助解决这个问题?- 有某种方法可以通过一些浏览器插件快速重新发送请求.. 我不知道.. 谷歌还没有发现任何对我有用的东西.. 所以我希望这里的其他开发人员也有类似的问题并有一些指示为了我 :)
architecture - 计算多周期与单周期的 MIPS 并得到奇怪的答案
我遇到了一个问题,我需要计算两个系统的 MIPS,一个是单周期,一个是多周期。我不认为我做的数学是正确的,我希望有人能很好地解释我所缺少的。
计算 GHz 对于我的单周期系统...
我的理解是,单周期系统只能以最慢指令的速度运行。运行最慢的指令需要 3.96 x 10^(-10) 秒。这意味着它每秒可以运行该指令 1 / (3.96 x 10^(-10)) 次,即每秒 2.53 x 10^9 个周期,即 2.53 GHz。
计算 GHz 对于我的多周期系统...
我的一条多周期指令的平均速度是 3.6862 x 10^(-10) 秒。这意味着它每秒可以运行 1 / (3.682 x 10^(-10)) 次,即每秒 2.71 x 10^9 个周期,即 2.71 GHz。
...
好的,到目前为止对我来说很有意义。多周期系统效率更高,因此整体运行速度更快。但是在下一部分中,我得到了一个令人困惑的答案。
计算我的单循环系统的 MIPS 等级...
因为它是一个单循环系统,它自动有 1 个循环/instr。
这似乎很多。尤其是当您考虑我的下一个答案时。
计算我的多循环系统的 MIPS 等级...
我的多周期系统每条指令的平均周期数:4
我的单周期系统不可能计算出几乎是多周期系统的 4 倍 MIPS,对吧?
我的计算一定有问题,否则我误解了这些系统工作方式的基本原理。
任何帮助将不胜感激。
非常感谢!
performance - 我如何计算平均cpi?
我有点坚持一些工作。要找到 cpi,我需要将指令的百分比乘以时钟周期,但显示的是平均停顿周期。我真的不明白如何解决这个问题。任何帮助,将不胜感激。
一台5级流水线的计算机被测,具有以下特点</p>
指令类型 指令的百分比。平均 停顿周期/指令
分支 .3 .7 </p>
加载和存储 .2 .2 </p>
ALU 运算 .4 0 </p>
其他 .1 .2 </p>
a) 计算机的平均 CPI 是多少?
b) 这台机器的加速比是多少?
kernel - 如何解决 cpufreqset 错误
我想改变cpu频率。我已经安装了 cpufrequtils。命令“ cpufreq-info
”给我信息
当我尝试运行命令时:“ sudo cpufreq-set -f 1500000
”。我收到错误:
你能告诉我如何解决这个问题吗?
python - 快速的python矩阵创建和迭代
我需要从权重矩阵的值开始创建一个矩阵。在创建和迭代矩阵时,在速度方面保持矩阵的最佳结构是什么?我正在考虑一个列表列表或一个 numpy 2D 数组,但它们对我来说似乎都很慢。我需要的:
或者
其中 dim 也可以是 20000 , node_degree 是一个向量, arc_weight 是另一个矩阵。我用 C++ 写的,不到 0.5 秒,而其他两个用 python 超过 20 秒。我知道 python 不是 c++,但我需要尽可能快。谢谢你们。
c# - 英特尔 CPU 之间令人困惑的性能差异
我正在在 CPU 和 GPU 上实现不同的算法。令我感到奇怪的是,一个非常原始的示例(顺序 - 又名 1 个线程 - 创建具有 100*1024*1024 元素的数组的直方图)在服务器 CPU 上花费了 200% - 300% 的时间(诚然,时钟频率略低并且比在工作站 CPU 上更早一代)。两台机器都使用 DDR3 内存,工作站上的 16GB 双通道 (FSB:DRAM 1:6) 和服务器上的 512GB 四通道 (FSB:DRAM 1:12),均以 800Mhz DRAM 时钟速率运行。
在我的工作站上,直方图计算需要 < 100 毫秒(平均 90 毫秒),而在服务器上平均需要300 毫秒,而在零星的情况下,它只需要大约150毫秒毫秒。
我在两台机器上使用相同的版本(任何 CPU,更喜欢 32 位,发布版本)。
在另一个问题上,为什么纯 64 位构建在两台机器上都慢了至少 25%?
服务器 CPU:
工作站 CPU:
java - 迭代后计算时间减少
我正在做关于排序算法效率的项目。假设我执行了 50 次冒泡排序迭代并找到 n 个数字所花费的平均时间。但我意识到前几次迭代总是比后续迭代慢
例如 1394 毫秒、1381 毫秒、1001 毫秒、1008 毫秒、1008 毫秒、1011 毫秒...
背后的原因可能是什么?是因为cpu能分辨出哪组数据要存入缓存吗?如果是这样,我是否应该不使用随后的计算时间进行分析,因为这不现实?
谢谢!
编辑:我也在做其他排序算法,以冒泡排序为例,但事情是它发生在我所做的所有排序中,除了插入
c - 我程序中的某些线程没有获得 CPU 周期
我有一个我创建的程序160 threads
——用于处理分别指向它们的数据和一个线程——它将数据保存在地图中。
所有线程都是在运行程序时创建的。
问题:
有时我的 160 个线程中的一些线程无法从数据线程中的映射读取数据。
我尝试减少Mutex locks
但问题仍然存在。
请帮忙。
performance - 如何加快 LWJGL 中的像素渲染?
我只是在尝试使用 LWJGL 进行不同的渲染方式。我遇到了这种方法glDrawPixels(width, height, format, type, bytebuffer)
。因此,使用这种方法,我决定尝试在 LWJGL 中仅渲染像素并提出以下建议:
这非常有效,但是我注意到当我使用正常的 LWJGL 矩阵模式渲染时,fps 大约少了 500 帧。那么我怎样才能加快它的速度,这样我就不必遍历像素并将 RGBA 值添加到每一帧的字节缓冲区?
matlab - 多个嵌入式for循环的Matlab矢量化
假设您有 5 个向量:v_1、v_2、v_3、v_4 和 v_5。这些向量中的每一个都包含从最小值到最大值的一系列值。例如:
这些向量中的每一个都使用相同的步长,但具有不同的最小值和最大值。因此,它们各有不同的长度。
函数 F(v_1, v_2, v_3, v_4, v_5) 依赖于这些向量,并且可以使用其中元素的任意组合。(为糟糕的解释道歉)。我试图找到 F 的最大值并记录导致它的值。我目前的方法是使用多个嵌入式 for 循环,如图所示为向量元素的每个组合计算函数:
对于小步长,这变得非常慢。如果每个向量中有大约 100 个元素,则组合的数量约为 100*100*100*100*100。这是一个问题,因为我需要小步长值来获得适当收敛的答案。
我想知道是否可以使用Vectorization或任何其他方法来加快速度。我也在考虑在计算之前生成组合,但这似乎比我目前的方法还要慢。我已经很久没有使用 Matlab 了,但是仅仅看一下嵌入式 for 循环的数量就让我觉得这绝对可以加快速度。感谢您的建议。