我目前正在完成一项处理 Big-O 和运行时间的任务。我向我提出了一个似乎很容易的问题,但我不确定我是否做得正确。其余的问题都相当困难,我觉得我在这里忽略了一些东西。
首先,你有这些东西:算法 A,它的运行时间为 50n^3。计算机 A,每次操作的速度为 1 毫秒。计算机 B,每次操作的速度为 2 毫秒。大小为 300 的实例。
我想知道算法 A 在计算机 A 上解决这个实例需要多长时间,以及在计算机 B 上需要多长时间。
我想要做的是低于 300 的 n,所以你有 50*(300^2) = 4500000。
然后,将第一台计算机乘以 1,第二台计算机乘以 2。
不过,这对我来说很奇怪,因为它说“运行时间”是 50n^3,而不是“操作次数是 50n^3”,所以我觉得我在乘以时间,并且会最终以毫秒平方为单位,这似乎根本不对。
我想知道我是否正确,如果不是,这个问题的实际含义是什么。