迭代、递归、时间复杂度、空间复杂度
迭代
迭代是一种重复执行某个任务的控制结构。在迭代中,程序会在满足一定的条件下重复执行某段代码,直到这个条件不再满足。
for 循环
for
循环是最常见的迭代形式之一,适合预先知道迭代次数时使用。
Python:
1 | def for_loop(n: int) -> int: |
Go:
1 | /* for 循环 */ |
while循环
与 for
循环类似,while
循环也是一种实现迭代的方法。在 while
循环中,程序每轮都会先检查条件,如果条件为真则继续执行,否则就结束循环。
Python:
1 | def while_loop(n: int) -> int: |
Go:
1 | /* while 循环 */ |
在 while
循环中,由于初始化和更新条件变量的步骤是独立在循环结构之外的,因此它比 for
循环的自由度更高。总的来说,**for
循环的代码更加紧凑,while
循环更加灵活**,两者都可以实现迭代结构。选择使用哪一个应该根据特定问题的需求来决定。
嵌套循环
我们可以在一个循环结构内嵌套另一个循环结构,以 for
循环为例:
Python:
1 | def nested_for_loop(n: int) -> str: |
Go:
1 | /* 双层 for 循环 */ |
递归
递归是一种算法策略,通过函数调用自身来解决问题。它主要包含两个阶段。
- 递:程序不断深入地调用自身,通常传入更小或更简化的参数,直到达到“终止条件”。
- 归:触发“终止条件”后,程序从最深层的递归函数开始逐层返回,汇聚每一层的结果。
而从实现的角度看,递归代码主要包含三个要素。
- 终止条件:用于决定什么时候由“递”转“归”。
- 递归调用:对应“递”,函数调用自身,通常输入更小或更简化的参数。
- 返回结果:对应“归”,将当前递归层级的结果返回至上一层。
Python:
1 | def recur(n: int) -> int: |
Go:
1 | /* 递归 */ |
调用栈
递归函数每次调用自身时,系统都会为新开启的函数分配内存,以存储局部变量、调用地址和其他信息等。这将导致两方面的结果。
- 函数的上下文数据都存储在称为“栈帧空间”的内存区域中,直至函数返回后才会被释放。因此,递归通常比迭代更加耗费内存空间。
- 递归调用函数会产生额外的开销。因此递归通常比循环的时间效率更低。
尾递归
如果函数在返回前的最后一步才进行递归调用,则该函数可以被编译器或解释器优化,使其在空间效率上与迭代相当。这种情况被称为尾递归。
- 普通递归:当函数返回到上一层级的函数后,需要继续执行代码,因此系统需要保存上一层调用的上下文。
- 尾递归:递归调用是函数返回前的最后一个操作,这意味着函数返回到上一层级后,无需继续执行其他操作,因此系统无需保存上一层函数的上下文。
Python:
1 | def tail_recur(n, res): |
Go:
1 | /* 尾递归 */ |
个人理解尾递归就是最后一步递归调用一结束那么所有的函数就结束了,不需要再挨着挨着返回上一层函数。
递归树
典型问题:斐波那契数列
Python:
1 | def fib(n: int) -> int: |
Go:
1 | func fib(n int) int { |
在函数内递归调用了两个函数,这意味着从一个调用产生了两个调用分支。这样不断递归调用下去,最终将产生一个层数为 n 的递归树。
时间复杂度
时间复杂度分析统计的不是算法运行时间,而是算法运行时间随着数据量变大时的增长趋势。
“时间增长趋势”这个概念比较抽象,我们通过一个例子来加以理解。假设输入数据大小为 n ,给定三个算法函数 A
、B
和 C
:
Python:
1 | # 算法 A 的时间复杂度:常数阶 |
1 | // 算法 A 的时间复杂度:常数阶 |
- 算法
A
只有 1 个打印操作,算法运行时间不随着 n 增大而增长。我们称此算法的时间复杂度为“常数阶”。 - 算法
B
中的打印操作需要循环 n 次,算法运行时间随着 n 增大呈线性增长。此算法的时间复杂度被称为“线性阶”。 - 算法
C
中的打印操作需要循环 1000000 次,虽然运行时间很长,但它与输入数据大小 n 无关。因此C
的时间复杂度和A
相同,仍为“常数阶”。
时间复杂度的公式是: T(n) = O( f(n) ),时间复杂度分析本质上是计算“操作数量函数T(n)的渐近上界,而O 表示正比例关系,这个公式的全称是:算法的渐进时间复杂度。
若存在正实数c和实数n₀,使得对于所有的n > n₀,均有T(n)≤c f(n),则可认为f(n)给出了T(n)的一个渐近上界,记为T(n)=O(f(n))。计算渐近上界就是寻找一个函数f(n),使得当n趋向于无穷大时,T(n)和f(n)处于相同的增长级别,仅相差一个常数项c的倍数。
那该怎样确定渐近上界f(n)呢?总体分为两步:首先统计操作数量,然后判断渐近上界。
第一步:统计操作数量
针对代码,逐行从上到下计算即可。然而,由于上述c· f(n)中的常数项c可以取任意大小,因此操作数量T(n)中的各种系数、常数项都可以被忽略。根据此原则,可以总结出以下计数简化技巧。
1.忽略T(n)中的常数项。因为它们都与n无关,所以对时间复杂度不产生影响。
2.省略所有系数。例如,循环2n 次、5n+1次等,都可以简化记为n次,因为n前面的系数对时间复杂度没有影响。
3.循环嵌套时使用乘法。总操作数量等于外层循环和内层循环操作数量之积,每一层循环依然可以分别套用第1点和第2点的技巧。
给定一个函数,我们可以用上述技巧来统计操作数量。
Python:
1 | def algorithm(n: int): |
Go:
1 | func algorithm(n int) { |
以下公式展示了使用上述技巧前后的统计结果,两者推出的时间复杂度都为O(n²) 。
第二步:判断渐近上界
时间复杂度由多项式T(n)中最高阶的项来决定。这是因为在n趋于无穷大时,最高阶的项将发挥主导作用,其他项的影响都可以被忽略。
常见的时间复杂度量级有:
- 常数阶O(1)
- 对数阶O(logn)
- 线性阶O(n)
- 线性对数阶O(nlogn)
- 平方阶O(n²)
- 指数阶(2^n)
- 阶乘阶(n!)
上面从上至下依次的时间复杂度越来越大,执行的效率越来越低。
- 常数阶O(1)
常数阶的操作数量与输入数据大小n无关,即不随着n的变化而变化。
在以下函数中,尽管操作数量 size
可能很大,但由于其与输入数据大小n无关,因此时间复杂度仍为 O(1) :
Python:
1 | def constant(n: int) -> int: |
Go:
1 | /* 常数阶 */ |
上述代码在执行的时候,它消耗的时候并不随着某个变量的增长而增长,那么无论这类代码有多长,即使有几万几十万行,都可以用O(1)来表示它的时间复杂度。
- 线性阶O(n)
线性阶的操作数量相对于输入数据大小n以线性级别增长。线性阶通常出现在单层循环中:
Python:
1 | def linear(n: int) -> int: |
Go:
1 | /* 线性阶 */ |
这段代码,for循环里面的代码会执行n遍,因此它消耗的时间是随着n的变化而变化的,因此这类代码都可以用O(n)来表示它的时间复杂度。
- 对数阶O(logn)
Python:
1 | def logarithmic(n: int) -> int: |
Go:
1 | func logarithmic(n int) int { |
从上面代码可以看到,在while循环里面,每次都将 i 乘以 2,乘完之后,i 距离 n 就越来越近了。我们试着求解一下,假设循环x次之后,i 就大于 2 了,此时这个循环就退出了,也就是说 2 的 x 次方等于 n,那么 x = log2^n
也就是说当循环 log2^n 次以后,这个代码就结束了。根据换底公式,2也可以为其他常熟值,故这个代码的时间复杂度为:O(logn)
- 线性对数阶O(nlogn)
线性对数阶O(nlogn) 其实非常容易理解,将时间复杂度为O(logn)的代码循环n遍的话,那么它的时间复杂度就是 n * O(logn),也就是了O(nlogn)。
就拿上面的代码加一点修改来举例:
Python:
1 | def linear_log(n: int): |
Go:
1 | func linearLog(n int) { |
- 平方阶O(n²)
平方阶的操作数量相对于输入数据大小n以平方级别增长。平方阶通常出现在嵌套循环中,外层循环和内层循环都为O(n),因此总体为 O(n²) :
Python:
1 | def quadratic(n: int) -> int: |
Go:
1 | /* 平方阶 */ |
如果将其中一层循环的n改成m,即:
Python:
1 | def quadratic(n: int) -> int: |
Go:
1 | /* 平方阶 */ |
那它的时间复杂度就变成了 O(m*n)。
- 指数阶O(2^n)
生物学的“细胞分裂”是指数阶增长的典型例子:初始状态为 1 个细胞,分裂一轮后变为 2 个,分裂两轮后变为 4 个,以此类推,分裂n轮后有 2^n个细胞。
Python:
1 | def exponential(n: int) -> int: |
Go:
1 | /* 指数阶(循环实现)*/ |
- 阶乘阶O(n!)
阶乘通常使用递归实现。如下代码所示,第一层分裂出n个,第二层分裂出n−1 个,以此类推,直至第n层时停止分裂:
Python:
1 | def factorial_recur(n: int) -> int: |
Go:
1 | /* 阶乘阶(递归实现) */ |
算法的时间效率往往不是固定的,而是与输入数据的分布有关。假设输入一个长度为n的数组 nums
,其中 nums
由从 1 至n的数字组成,每个数字只出现一次;但元素顺序是随机打乱的,任务目标是返回元素 1 的索引。
Python:
1 | def random_numbers(n: int) -> list[int]: |
Go:
1 | /* 生成一个数组,元素为 { 1, 2, ..., n },顺序被打乱 */ |
值得说明的是,我们在实际中很少使用最佳时间复杂度,因为通常只有在很小概率下才能达到,可能会带来一定的误导性。而最差时间复杂度更为实用,因为它给出了一个效率安全值,让我们可以放心地使用算法。
空间复杂度
既然时间复杂度不是用来计算程序具体耗时的,那么我也应该明白,空间复杂度也不是用来计算程序实际占用的空间的。
空间复杂度是对一个算法在运行过程中临时占用存储空间大小的一个量度,同样反映的是一个趋势。
推算方法
而与时间复杂度不同的是,我们通常只关注最差空间复杂度。这是因为内存空间是一项硬性要求,我们必须确保在所有输入数据下都有足够的内存空间预留。
观察以下代码,最差空间复杂度中的“最差”有两层含义。
- 以最差输入数据为准:当n<10时,空间复杂度为O(1);但当n >10时,初始化的数组nums 占用O(n)空间;因此最差空间复杂度为O(n)。
- 以算法运行中的峰值内存为准:例如,程序在执行最后一行之前,占用O(1)空间;当初始化数组nums时,程序占用O(n)空间;因此最差空间复杂度为O(n)。
Python:
1 | def algorithm(n: int): |
Go:
1 | func algorithm(n int) { |
在递归函数中,需要注意统计栈帧空间。例如在以下代码中:
- 函数loop()在循环中调用了n次function() ,每轮中的 function()都返回并释放了栈帧空间,因此空间复杂度仍为O(1)。
- 递归函数recur()在运行过程中会同时存在n个未返回的recur(),从而占用O(n)的栈帧空间。
Python:
1 | def function() -> int: |
Go:
1 | func function() int { |
空间复杂度比较常用的有:O(1)、O(logn)、O(n)、O(n²)、O(2^n),从低到高排列,我们下面来看看:
- 常数阶 O(1)
常数阶常见于数量与输入数据大小n无关的常量、变量、对象。
需要注意的是,在循环中初始化变量或调用函数而占用的内存,在进入下一循环后就会被释放,因此不会累积占用空间,空间复杂度仍为O(1) :
Python:
1 | def function() -> int: |
Go:
1 | /* 函数 */ |
- 线性阶O(n)
线性阶常见于元素数量与n成正比的数组、链表、栈、队列等:
Python:
1 | def linear(n: int): |
Go:
1 | /* 线性阶 */ |
下面的这种情况也是一个例子,此函数的递归深度为n ,即同时存在n个未返回的 linear_recur()
函数,使用O(n)大小的栈帧空间:
Python:
1 | def linear_recur(n: int): |
Go:
1 | /* 线性阶(递归实现) */ |
- 平方阶O(n^2)
平方阶常见于矩阵和图,元素数量与 n成平方关系:
Python:
1 | def quadratic(n: int): |
Go:
1 | /* 平方阶 */ |
如下所示,该函数的递归深度为n,在每个递归函数中都初始化了一个数组,长度分别为n、n -1、…、2、1,平均长度为n/2,因此总体占用O(n^2)空间:
Python:
1 | def quadratic_recur(n: int) -> int: |
Go:
1 | /* 平方阶(递归实现) */ |
- 指数阶(2^n)
指数阶常见于二叉树。观察图,高度为n的“满二叉树”的节点数量为2^n-1,占用O(2^n)空间:
Python:
1 | def build_tree(n: int) -> TreeNode | None: |
Go:
1 | /* 指数阶(建立满二叉树) */ |
- 对数阶O(logn)
例如将数字转化为字符串,输入一个正整数n,它的位数为log₁₀n+1,即对应字符串长度为log₁₀n +1,因此空间复杂度为O(log₁₀n+1) = O(logn)。
降低时间复杂度通常需要以提升空间复杂度为代价,反之亦然。我们将牺牲内存空间来提升算法运行速度的思路称为“以空间换时间”;反之,则称为“以时间换空间”。
Refercences:https://www.hello-algo.com/chapter_computational_complexity/