复杂度分析

为什么需要复杂度分析 #

在实际工作中,我们把代码跑一遍,通过统计、监控,就能得到算法执行的时间和占用的内存大小。为什么还要做时间、空间复杂度分析?

首先这种方法叫事后统计法,这种方法的局限性:

  1. 依赖测试环境。代码在不同的环境运行,结果是不同的,比如一个酷睿 i9,和酷睿 i3,很明显 i9 处理速度要快的多。
  2. 测试结构受数据规模的影响。测试数据规模太小,测试结果可能无法真实地反应算法的性能。

大 O 时间复杂度表示法 #

func cal(n int) int {
    sum := 0
    for i := 1; i <= n; ++i {
        sum = sum + i
    }
    return sum
}

上面的代码,假设每行代码执行的时间都一样,为 unit_time。那么,第 2、3 行代码分别需要 1 个 unit_time 的执行时间, 第 4、5 行都运行了 n 遍,所以需要 2n * unit_time 的执行时间,所以这段代码总的执行时间就是 (2n+2)* unit_time。 可以看出来,所有代码的执行时间 T(n) 与每行代码的执行次数成正比。

func cal2(n int) int {
 sum := 0
 for i := 1; i <= n; i++ {
  for j := 1; j <= n; j ++ {
   sum = sum + i
  }
 }
 return sum
}

上面的代码,第 2、3 行代码,每行都需要 1 个 unit_time 的执行时间,第 4 行代码循环执行了 n 遍,需要 n * unit_time的执 行时间,第 5,6 行代码循环执行了 n^2 遍,所以需要 2n^2 * unit_time 的执行时间。所以,整段代码总的执行 时间T(n) = (2n^2+n+3)*unit_time

我们不知道 unit_time 的具体值,但是通过这两段代码执行时间的推导过程,我们可以得到一个非常重要的规律,那就是, 所有代码的执行时间 T(n) 与每行代码的执行次数 n 成正比。 把这个规律总结成一个公式:

T(n) = O(f(n))

T(n) 表示代码执行的时间;n 表示数据规模的大小;f(n) 表示每行代码执行的次数总和。公式中的 O,表示代码的执行 时间 T(n)f(n) 表达式成正比

所以,第一个例子中的 T(n) = O(2n+2),第二个例子中的 T(n) = O(2n^2+n+3)。这就是大 O 时间复杂度表示法

大 O 时间复杂度实际上并不具体表示代码真正的执行时间,而是表示代码执行时间随数据规模增长的变化趋势,所以,也叫作渐进时 间复杂度(asymptotic time complexity),简称时间复杂度

如何分析一段代码的时间复杂度 #

  1. 只关注循环执行次数最多的一段代码,例如,第一个例子中的 T(n) = O(2n+2),总的时间复杂度就是 O(n)。第二个例子中 的 T(n) = O(2n^2+n+3)。总的时间复杂度就是 O(n^2)
  2. 加法法则:总复杂度等于量级最大的那段代码的复杂度
  3. 乘法法则:嵌套代码的复杂度等于嵌套内外代码复杂度的乘积
func cal3(n int) int {
 ret := 0
 for i := 1; i <= n; i++ {
  ret = ret + f(i)
 }
 return ret
}

func f(n int) int {
 sum := 0
 for i := 1; i <= n; i++ {
  sum = sum + i
 }
 return sum
}

单独看 cal3() 函数。假设 f() 只是一个普通的操作,那第 4~6 行的时间复杂度就是,T1(n) = O(n)。 但 f() 函数本身不是一个简单的操作,它的时间复杂度是 T2(n) = O(n),所以,整个 cal() 函数的时间复杂度就是, T(n) = T1(n) * T2(n) = O(n*n) = O(n^2)

复杂度量级 #

按数量级递增:

常量阶 O(1)            指数阶 O(2^n)
对数阶 O(logn)         阶乘阶 O(n!)
线性阶 O(n)
线性对数阶 O(nlogn)
平方阶 O(n^2),立方阶 O(n^3),k 次方阶 O(n^k)

上面的复杂度量级,可以分为两类,多项式量级非多项式量级

非多项式量级 #

时间复杂度为非多项式量级的算法问题叫作 NP(Non-Deterministic Polynomial,非确定多项式)问题。

非多项式量级只有两个:O(2^n)O(n!)

当数据规模 n 越来越大时,非多项式量级算法的执行时间会急剧增加,求解问题的执行时间会无限增长。所以,非多项式时间复 杂度的算法其实是非常低效的算法

常量阶 O(1) #

O(1) 只是常量级时间复杂度的一种表示方法,并不是指只执行了一行代码。比如这段代码,即便有 3 行,它的时间复杂度 也是 O(1),而不是 O(3)

i := 8;
j := 6;
sum := i + j;

只要代码的执行时间不随 n 的增大而增长,这样代码的时间复杂度我们都记作 O(1)。或者说,一般情况下,只要算法中不存在循 环语句、递归语句,即使有成千上万行的代码,其时间复杂度也是 Ο(1)

对数阶 O(logn) 线性对数阶 O(nlogn) #

对数阶时间复杂度非常常见,同时也是最难分析的一种时间复杂度。

i := 1;
for i <= n {
  i = i * 2;
}

上面的代码中,变量 i 的值从 1 开始取,每循环一次就乘以 2。当大于 n 时,循环结束。变量 i 的取值就是一个等比数列。 我们只要知道 x 值是多少,就知道这行代码执行的次数了。通过 2^x=n 求解 x。x=log2(n),所以,这段代码的时间复杂度 就是 O(log2(n))

不管是以 2 为底、以 3 为底,还是以 10 为底,我们可以把所有对数阶的时间复杂度都记为 O(logn)

如果理解了 O(logn),那 O(nlogn) 就很容易理解了。还记得我们刚讲的乘法法则吗?如果一段代码的时间复杂度是 O(logn), 我们循环执行 n 遍,时间复杂度就是 O(nlogn) 了。而且,O(nlogn) 也是一种非常常见的算法时间复杂度。比如,归并排序、快速 排序的时间复杂度都是 O(nlogn)

空间复杂度分析 #

空间复杂度全称是渐进空间复杂度(asymptotic space complexity),表示算法的存储空间与数据规模之间的增长关系

func DemopPint(n int) {
 a := make([]int, n)
 for i := 0; i < n; i ++ {
  a = append(a, i * i)
 }
 for i := n - 1; i >= 0; i -- {
  fmt.Println(a[i])
 }
}

第 2 行代码中,申请了一个大小为 n 的 int 类型数组,除此之外,剩下的代码都没有占用更多的空间,所以整段代码的空间复 杂度就是 O(n)

常见的空间复杂度就是 O(1)O(n)O(n^2),像 O(logn)O(nlogn) 这样的对数阶复杂度平时都用不到。

最好、最坏情况时间复杂度 #

// n 表示数组 array 的长度 int
func find(array []int, n, x int) int {
 pos := -1
 for i := 0; i < n; i ++ {
  if array[i] == x {
   pos = i
  }
 }
 return pos
}

按照前面的方法分析,很明显复杂度是 O(n)

但是在数组中查找一个数据,并不需要每次都把整个数组都遍历一遍,因为有可能中途找到就可以提前结束循环了。我们优化一下代码:

func find(array []int, n, x int) int {
 pos := -1
 for i := 0; i < n; i ++ {
  if array[i] == x {
   pos = i
   break
  }
 }
 return pos
}

优化以后复杂度明显不再是 O(n)

为了表示代码在不同情况下的不同时间复杂度,需要引入三个概念:最好情况时间复杂度、最坏情况时间复杂度

最好情况时间复杂度就是,在最理想的情况下,执行这段代码的时间复杂度。比如上面的例子,在最理想的情况下,要查找的变量 x 正好是数组的第一个元素,这个时候对应的时间复杂度就是最好情况时间复杂度。复杂度就是 O(1)

同理,最坏情况时间复杂度就是,在最糟糕的情况下,执行这段代码的时间复杂度。上面的例子,如果数组中没有要查找的变量 x,我们需 要把整个数组都遍历一遍才行,所以这种最糟糕情况下对应的时间复杂度就是最坏情况时间复杂度。复杂度就是O(n)

平均情况时间复杂度 #

最好情况时间复杂度和最坏情况时间复杂度对应的都是极端情况下的代码复杂度,发生的概率其实并不大。为了更好地表示平均情况下的复杂度, 需要引入另一个概念:平均情况时间复杂度,后面我简称为平均时间复杂度

还是前面的例子,要查找的变量 x 在数组中的位置,有 n+1 种情况:在数组的 0~n-1 位置中和不在数组中。我们把每种情况下,查找 需要遍历的元素个数累加起来,然后再除以 n+1,就可以得到需要遍历的元素个数的平均值。时间复杂度的大 O 标记法中,可以省略掉系数、 低阶、常量,所以,咱们把刚刚这个公式简化之后,得到的平均时间复杂度就是 O(n)

(1 + 2 + 3 + n + n)/(n + 1) = n(n + 3)/2(n + 1)

这个结论虽然是正确的,但是计算过程稍微有点儿问题。是什么问题? n+1 种情况,出现的概率并不是一样的。

要查找的变量 x,要么在数组里,要么就不在数组里。这两种情况对应的概率统计起来很麻烦,假设在数组中与不在数组中的概率 都为 1/2。另外,要查找的数据出现在 0~n-1n 个位置的概率也是一样的,为 1/n。所以,根据概率乘法法则,要查找的 数据出现在 0~n-1 中任意位置的概率就是 1/(2n)

引入概率之后,前面那段代码的加权平均值为 (3n+1)/4。用大 O 表示法来表示,去掉系数和常量,这段代码的加权平均时间复杂度仍 然是 O(n)

很多时候,我们使用一个复杂度就可以满足需求了。

均摊时间复杂度 #

均摊时间复杂度就是一种特殊的平均时间复杂度,一般均摊时间复杂度就等于最好情况时间复杂度