大 O 表示法及其亲属,大 Theta、大 Omega、小 o 和小 Omega 是表达函数在极限点的行为方式(例如,当接近无穷大时,也接近0等),而无需多说有关该功能的其他信息。它们通常用于描述算法的运行空间和时间,但也可以在有关渐近行为的其他数学领域中看到。
半直观的定义如下:
如果“从某个点开始”,g(x) 低于 c*f(x),则函数 g(x) 被称为 O(f(x)),其中 c 是某个常数。
其他定义类似,Theta 要求 g(x) 介于 f(x) 的两个常数倍数之间,Omega 要求 g(x)>c*f(x),而小版本要求这对所有此类都是正确的常数。
但是为什么说一个算法的运行时间为 O(n^2) 会很有趣呢?
这很有趣,主要是因为在理论计算机科学中,我们最感兴趣的是算法如何处理大输入。这是真的,因为在小输入上,算法运行时间可能会因实现、编译、硬件和其他在理论上分析算法时并不真正有趣的事情而有很大差异。
然而,增长率通常取决于算法的性质,要改进它,您需要对您要解决的问题有更深入的了解。例如,排序算法就是这种情况,您可以获得一个简单的算法(冒泡排序)以在 O(n^2) 中运行,但要将其改进为 O(n log n),您需要一个真正的新想法,例如在合并排序或堆排序中介绍的。
另一方面,如果你有一个算法在 5n 秒内运行,而另一个在 1000n 秒内运行(例如,n=3 时长打哈欠和发射中断之间的差异),当你到达n=1000000000000,规模差异似乎不那么重要。但是,如果您有一个需要 O(log n) 的算法,则您必须等待 log(1000000000000)=12 秒,也许乘以某个常数,而不是将近 317,098 年,无论常数有多大是,是完全不同的尺度。
我希望这能让事情变得更清楚一些。祝你学业顺利!