嗨,我需要一些有关 matlab 的帮助。
我有一个 500 x 360 的矩阵。下面是一个示例数据集:
10 10 12 11 9 8 8 25 26 26 20 20 20
20 22 26 20 20 19 30 31 33 35 33 32
30 30 29 31 32 33 31 33 33 32 31 31
40 50 49 45 47 47 45 65 68 69 70 71
代码必须执行以下操作:
- 查找我指定的值的第一次出现,在本例中是 20% 的变化。因此观察 (1,:),第一次出现 20% 的变化是在第 2 列和第 3 列之间。
- 然后它识别出在步骤 1 中指定的值之后出现的最低值。在本例中是第 6 列(即值 8)。然后代码测量从步骤 1 中指定的值到步骤 2 中出现的最小值所经过的时间。回顾示例,20% 的 delta 为 (1,3) = 12,最小值出现在 delta 20% 之后是 (1,6) = 8。经过的时间是 3。
- 然后代码从步骤 2 中找到的最小值中找到最大值。在这种情况下,第 9 列的值为 26。它还记录了经过的时间。
- 最后,代码测量从第一个增量值到找到的最高值所经过的时间。在这种情况下,是从 (1,3) 到 (1,9) 的时间,即 6。
所以输出看起来像这样:
12 8 3 26 3 6
26 19 3 35 4 3
NaN NaN NaN NaN NaN NaN
50 45 2 71 8 10
我感谢您的帮助。非常感谢:)