⑴ 程序中的时间复杂度是怎么计算的
算法复杂度的介绍,见网络:
http://ke..com/view/7527.htm
时间复杂度
时间频度
一个算法执行所耗费的时间,从理论上是不能算出来的,必须上机运行测试才能知道。但我们不可能也没有必要对每个算法都上机测试,只需知道哪个算法花费的时间多,哪个算法花费的时间少就可以了。并且一个算法花费的时间与算法中语句的执行次数成正比例,哪个算法中语句执行次数多,它花费时间就多。一个算法中的语句执行次数称为语句频度或时间频度。记为T(n)。
计算方法
1. 一般情况下,算法的基本操作重复执行的次数是模块n的某一个函数f(n),因此,算法的时间复杂度记做:T(n)=O(f(n))
分析:随着模块n的增大,算法执行的时间的增长率和f(n)的增长率成正比,所以f(n)越小,算法的时间复杂度越低,算法的效率越高。
2. 在计算时间复杂度的时候,先找出算法的基本操作,然后根据相应的各语句确定它的执行次数,再找出T(n)的同数量级(它的同数量级有以下:1,Log2n ,n ,nLog2n ,n的平方,n的三次方,2的n次方,n!),找出后,f(n)=该数量级,若T(n)/f(n)求极限可得到一常数c,则时间复杂度T(n)=O(f(n))
例:算法:
for(i=1;i<=n;++i)
{
for(j=1;j<=n;++j)
{
c[ i ][ j ]=0; //该步骤属于基本操作 ,执行次数:n的平方 次
for(k=1;k<=n;++k)
c[ i ][ j ]+=a[ i ][ k ]*b[ k ][ j ]; //该步骤属于基本操作 ,执行次数:n的三次方 次
}
}
则有 T(n)= n的平方+n的三次方,根据上面括号里的同数量级,我们可以确定 n的三次方 为T(n)的同数量级
则有f(n)= n的三次方,然后根据T(n)/f(n)求极限可得到常数c
则该算法的 时间复杂度:T(n)=O(n^3) 注:n^3即是n的3次方。
3.在pascal中比较容易理解,容易计算的方法是:看看有几重for循环,只有一重则时间复杂度为O(n),二重则为O(n^2),依此类推,如果有二分则为O(logn),二分例如快速幂、二分查找,如果一个for循环套一个二分,那么时间复杂度则为O(nlogn)。
分类
按数量级递增排列,常见的时间复杂度有:
常数阶O(1),对数阶O(log2n),线性阶O(n),
线性对数阶O(nlog2n),平方阶O(n^2),立方阶O(n^3),...,
k次方阶O(n^k), 指数阶O(2^n) 。随着问题规模n的不断增大,上述时间复杂度不断增大,算法的执行效率越低。
关于对其的理解
《数据结构(C语言版)》------严蔚敏 吴伟民编着 第15页有句话"整个算法的执行时间与基本操作重复执行的次数成正比。"
基本操作重复执行的次数是问题规模n的某个函数f(n),于是算法的时间量度可以记为:T(n) = O( f(n) )
如果按照这么推断,T(n)应该表示的是算法的时间量度,也就是算法执行的时间。
而该页对“语句频度”也有定义:指的是该语句重复执行的次数。
如果是基本操作所在语句重复执行的次数,那么就该是f(n)。
上边的n都表示的问题规模。
以下来自网络知道:
对于这些算法
(1) for(i=1;i<=n;i++)
for(j=1;j<=n;j++)
s++;
(2) for(i=1;i<=n;i++)
for(j=i;j<=n;j++)
s++;
(3) for(i=1;i<=n;i++)
for(j=1;j<=i;j++)
s++;
(4) i=1;k=0;
while(i<=n-1){
k+=10*i;
i++;
}
(5) for(i=1;i<=n;i++)
for(j=1;j<=i;j++)
for(k=1;k<=j;k++)
x=x+1;
对应的时间复杂度为:
1.时间复杂度O(n^2)
2.时间复杂度O(n^2)
3.时间复杂度O(n^2)
4.时间复杂度O(n)
5.时间复杂度O(n^3)
一般来说,时间复杂度是总运算次数表达式中受n的变化影响最大的那一项(不含系数)
比如:一般总运算次数表达式类似于这样:
a*2^n+b*n^3+c*n^2+d*n*lg(n)+e*n+f
a<>0时,时间复杂度就是O(2^n);
a=0,b<>0 =>O(n^3);
a,b=0,c<>0 =>O(n^2)依此类推
那么,总运算次数又是如何计算出的呢?
一般来说,我们经常使用for循环,就像刚才五个题,我们就以它们为例
1.循环了n*n次,当然是O(n^2)
2.循环了(n+n-1+n-2+...+1)≈(n^2)/2,因为时间复杂度是不考虑系数的,所以也是O(n^2)
3.循环了(1+2+3+...+n)≈(n^2)/2,当然也是O(n^2)
4.循环了n-1≈n次,所以是O(n)
5.循环了(1^2+2^2+3^2+...+n^2)=n(n+1)(2n+1)/6(这个公式要记住哦)≈(n^3)/3,不考虑系数,自然是O(n^3)
另外,在时间复杂度中,log(2,n)(以2为底)与lg(n)(以10为底)是等价的,因为对数换底公式:
log(a,b)=log(c,b)/log(c,a)
所以,log(2,n)=log(2,10)*lg(n),忽略掉系数,二者当然是等价的
⑵ 究竟什么是时间复杂度,怎么求时间复杂度,看这一篇就够了
时间复杂度就是用来方便开发者估算出程序的运行时间
我们该如何估计程序运行时间呢,我们通常会估计算法的操作单元数量,来代表程序消耗的时间, 这里我们默认CPU的每个单元运行消耗的时间都是相同的。
假设算法的问题规模为n,那么操作单元数量便用函数f(n)来表示
随着数据规模n的增大,算法执行时间的增长率和f(n)的增长率相同,这称作为算法的渐近时间复杂度,简称时间复杂度,记为 O(f(n))
这里就要说一下这个大O,什么是大O呢,很多同学说时间复杂度的时候都知道O(n),O(n^2),但说不清什么是大O
算法导论给出的解释: 大O用来表示上界的 ,当用它作为算法的最坏情况运行时间的上界,就是对任意数据输入的运行时间的上界。
同样算法导论给出了例子:拿插入排序来说,插入排序的时间复杂度我们都说是O(n^2)
但是在数据本来有序的情况下时间复杂度是O(n),也就对于所有输入情况来说,最坏是O(n^2) 的时间复杂度,所以称插入排序的时间复杂度为O(n^2)
同样的同理我们在看一下快速排序,都知道快速排序是O(nlogn),但是当数据已经有序情况下,快速排序的时间复杂度是O(n^2) 的,严格从大O的定义来讲,快速排序的时间复杂度应该是O(n^2)
但是我们依然说快速排序是O(nlogn)的时间复杂度,这个就是业内的一个默认规定,我们这里说的O 代表的就是一般情况,不是严格的上界
所以这里大家知道这么一回事就好了
面试中面试官绝对不会针对快速排序的时间复杂度问题来讨论O的定义, 大家知道讨论的时间复杂度就是指一般情况下的时间复杂度就好了。
大家要对算法的时间复杂度有这样的一个概念
就是同一个算法的时间复杂度不是一成不变的,和输入的数据形式依然有关系
我们主要关心的还是一般情况下的数据形式 。
面试中说道算法的时间复杂度是多少指的都是一般情况
但是如果面试官和我们深入探讨一个算法的实现以及性能的时候 我们就要时刻想着 数据用例的不一样 时间复杂度也是不同的,这一点同学们要注意
这个图中我们可以看出 不同算法的时间复杂度 在不同数据输入规模下的差异 。
我们在决定使用那些算法的时候 ,不是时间复杂越低的越好,要考虑数据规模,如果数据规模很小 甚至可以用O(n^2)的算法比 O(n)的更合适
就像上图中图中 O(5n^2) 和 O(100n) 在n为20之前 很明显 O(5n^2)是更优的,所花费的时间也是最少的。
那我们为什么在计算时间复杂度的时候要忽略常数项系数呢,也就说O(100n) 就是O(n)的时间复杂度,O(5n^2) 就是O(n^2)的时间复杂度
而且要默认O(n) 优于O(n^2) 呢 ?
这里就又涉及到大O的定义
因为 大O其实就是数据量级突破一个点且数据量级非常大的情况下所表现出的时间复杂度 ,这个点也就是 常数项系数已经不起决定性作用的点。
例如上图中 20 就是那个点 ,n只要大于20 常数项系数已经不起决定性作用了。
所以我们说的时间复杂度都是省略常数项系数的,是因为一般情况下我们都是默认数据规模足够的大,基于这样的事实 我们给出的算法时间复杂的的一个排行如下所示:
O(1)常数阶 < O(logn)对数阶 < O(n)线性阶 < O(n^2)平方阶 < O(n^3)(立方阶) < O(2^n) (指数阶)
我们平时说这个 算法的时间复杂度是logn的,一定是log 以2为底n的对数么?
其实不然,也可以是以10为底n的对数,也可以是以20为底n的对数,但我们统一说 logn,也就是忽略底数的描述。
为什么可以这么做呢?
如下图所示
假如我们有两个算法的时间复杂度 分别是log以2为底n的对数 和 log 以10为底n的对数
那么这里如果大家还记得我们高中数学的话, 应该不能理解 以2为底n的对数 = 以2为底10的对数 乘以 以10为底n的对数
那这里以2为底10的对数 是一个常数,而我在上面已经讲述了我们计算时间复杂度是忽略常数项系数的
抽象一下 log 以i为底n的对数 等于 log 以j为底n的对数,所以我们忽略了i,直接说是logn,正式因为logij 是就一个常数
所以,这样就应该不难理解了 我们为什么忽略底数了
有时候,我们去计算时间复杂度的时候 发现不是一个 简单的O(n) 或者O(n^2), 而是一个复杂的表达式,例如:
O(2*n^2 + 10*n + 1000)
那这里我们通常如何描述这个算法的时间复杂度呢,一种方法就是简化法
去掉运行时间中的加法常数项 (因为常数项并不会因为n的增大而增加计算机的操作次数)
O(2*n^2 + 10*n)
去掉常数系数 (我们刚刚已经详细讲过为什么可以去掉常数项的原因了)
O(n^2 + n)
只保留保留最高项 去掉数量级小一级的n (因为n^2 的数据规模远大于 n),最终简化为:
O(n^2)
如果这一步同学们理解有困难,那也可以做提取n的操作,变成 O(n(n+1)) ,省略加法常数项后 也别变成了
O(n^2)
所以最后我们说:我们这个算法的算法时间复杂度是 O(n^2)
也可以用另一种简化的思路,当n大于40的时候 , 这个复杂度 会一直小于 O(3*n^2)
O(2*n^2 + 10*n + 1000) < O(3*n^2)
所以说 最后我们省略掉常数项系数最终时间复杂度也是 O(n^2)
我们通过一道题目,来看一下具体时间复杂度应该怎么算
题目描述:找出n个字符串中相同的两个字符串(假设这里只有两个相同的字符串)
一些同学可能以为解决这道题目可以采用枚举遍历的解法,时间复杂度是 O(n^2)
这个时间复杂度其实是不对的。
这里 一些同学忽略了字符串比较的时间消耗,这里并不像int 型数字做比较那么简单
除了n^2 次的遍历次数外, 字符串比较依然要消耗m次操作(m也就是字母串的长度),所以时间复杂度是 O(m*n*n)
那么我们再想一下其他解题思路
我们先排对n个字符串按字典序来排序,排序后n个字符串就是有序的,意味着两个相同的字符串就是挨在一起
然后在遍历一遍n个字符串,这样就找到两个相同的字符串了
那我们来看看这种算法的时间复杂度
快速排序时间复杂度 为O(nlogn),依然要考虑字符串的长度是m,那么快速排序每次的比较都要有m次的字符比较的操作,就是 O(m*n*logn)
之后我们还要遍历一遍这n个字符串找出两个相同的字符串,别忘了遍历的时候依然要比较字符串,所以总共的时间复杂度是 O(m*n*logn + n*m)
我们对 O(m*n*logn + n*m) 进行简化操作,把 m*n 提取出来变成 O(m*n*(logn + 1)) ,
在省略常数项最后的时间复杂度是 O(m*n*logn) , 那我们比较一下时间效率 O(m*n*logn) 是不是比第一种方法 O(m*n*n) 更快一些呢
很明显 O(m*n*logn) 要优于 O(m*n*n)
所以 先把字符串集合排序在遍历一遍找到两个相同字符串的方式要比直接暴力枚举的方式更快 。
通过这个例子 希望大家对时间复杂的是怎么算的有一个初步的理解和认识。
⑶ 时间复杂度怎么算
简单理解,时间复杂度就是执行语句被调用了多少次。 (1)如果只调用了一次,如: x=5; if(x<-4) {x=x+4;} else {x=x+3;} 在大括号中的内容,只会调用一个语句,那么O(n)=1; (2)如果调用了两次,如: x=5; if(x<-4) {x=x+4;} else {x=x+3;} x=x+56; 在大括号中的内容,只会调用一个语句,但是在最后,还有一个计算公式要调用语句;总共加起来就是调用2次。那么O(n)=2; (3)用1个FOR循环调用 for(x=0;x
⑷ C语言算法的时间复杂度如何计算啊
(1)时间频度 一个算法执行所耗费的时间,从理论上是不能算出来的,必须上机运行测试才能知道。但我们不可能也没有必要对每个算法都上机测试,只需知道哪个算法花费的时间多,哪个算法花费的时间少就可以了。并且一个算法花费的时间与算法中语句的执行次数成正比例,哪个算法中语句执行次数多,它花费时间就多。一个算法中的语句执行次数称为语句频度或时间频度。记为T(n)。 (2)时间复杂度 在刚才提到的时间频度中,n称为问题的规模,当n不断变化时,时间频度T(n)也会不断变化。但有时我们想知道它变化时呈现什么规律。为此,我们引入时间复杂度概念。 一般情况下,算法中基本操作重复执行的次数是问题规模n的某个函数,用T(n)表示,若有某个辅助函数f(n),使得当n趋近于无穷大时,T(n)/f(n)的极限值为不等于零的常数,则称f(n)是T(n)的同数量级函数。记作T(n)=O(f(n)),称O(f(n)) 为算法的渐进时间复杂度,简称时间复杂度。 在各种不同算法中,若算法中语句执行次数为一个常数,则时间复杂度为O(1),另外,在时间频度不相同时,时间复杂度有可能相同,如T(n)=n2+3n+4与T(n)=4n2+2n+1它们的频度不同,但时间复杂度相同,都为O(n2)。 按数量级递增排列,常见的时间复杂度有: 常数阶O(1),对数阶O(log(2)n),线性阶O(n), 线性对数阶O(nlog(2)n),平方阶O(n^2),立方阶O(n^3),..., k次方阶O(n^k),指数阶O(2^n)。随着问题规模n的不断增大,上述时间复杂度不断增大,算法的执行效率越低。
⑸ 如何计算时间复杂度
如何计算时间复杂度
定义:如果一个问题的规模是n,解这一问题的某一算法所需要的时间为T(n),它是n的某一函数 T(n)称为这一算法的“时间复杂性”。
当输入量n逐渐加大时,时间复杂性的极限情形称为算法的“渐近时间复杂性”。
我们常用大O表示法表示时间复杂性,注意它是某一个算法的时间复杂性。大O表示只是说有上界,由定义如果f(n)=O(n),那显然成立f(n)=O(n^2),它给你一个上界,但并不是上确界,但人们在表示的时候一般都习惯表示前者。
此外,一个问题本身也有它的复杂性,如果某个算法的复杂性到达了这个问题复杂性的下界,那就称这样的算法是最佳算法。
“大 O记法”:在这种描述中使用的基本参数是 n,即问题实例的规模,把复杂性或运行时间表达为n的函数。这里的“O”表示量级 (order),比如说“二分检索是 O(logn)的”,也就是说它需要“通过logn量级的步骤去检索一个规模为n的数组”记法 O ( f(n) )表示当 n增大时,运行时间至多将以正比于 f(n)的速度增长。
这种渐进估计对算法的理论分析和大致比较是非常有价值的,但在实践中细节也可能造成差异。例如,一个低附加代价的O(n2)算法在n较小的情况下可能比一个高附加代价的 O(nlogn)算法运行得更快。当然,随着n足够大以后,具有较慢上升函数的算法必然工作得更快。
O(1)
Temp=i;i=j;j=temp;
以 上三条单个语句的频度均为1,该程序段的执行时间是一个与问题规模n无关的常数。算法的时间复杂度为常数阶,记作T(n)=O(1)。如果算法的执行时 间不随着问题规模n的增加而增长,即使算法中有上千条语句,其执行时间也不过是一个较大的常数。此类算法的时间复杂度是O(1)。
O(n^2)
2.1. 交换i和j的内容
sum=0; (一次)
for(i=1;i<=n;i++) (n次 )
for(j=1;j<=n;j++) (n^2次 )
sum++; (n^2次 )
解:T(n)=2n^2+n+1 =O(n^2)
2.2.
for (i=1;i<n;i++)
{
y=y+1; ①
for (j=0;j<=(2*n);j++)
x++; ②
}
解: 语句1的频度是n-1
语句2的频度是(n-1)*(2n+1)=2n^2-n-1
f(n)=2n^2-n-1+(n-1)=2n^2-2
该程序的时间复杂度T(n)=O(n^2).
O(n)
2.3.
a=0;
b=1; ①
for (i=1;i<=n;i++) ②
{
s=a+b;③
b=a;④
a=s;⑤
}
解: 语句1的频度:2,
语句2的频度: n,
语句3的频度: n-1,
语句4的频度:n-1,
语句5的频度:n-1,
T(n)=2+n+3(n-1)=4n-1=O(n).
O(log2n )
2.4.
i=1; ①
while (i<=n)
i=i*2; ②
解: 语句1的频度是1,
设语句2的频度是f(n), 则:2^f(n)<=n;f(n)<=log2n
取最大值f(n)= log2n,
T(n)=O(log2n )
O(n^3)
2.5.
for(i=0;i<n;i++)
{
for(j=0;j<i;j++)
{
for(k=0;k<j;k++)
x=x+2;
}
}
解: 当i=m, j=k的时候,内层循环的次数为k当i=m时, j 可以取 0,1,...,m-1 , 所以这里最内循环共进行了0+1+...+m-1=(m-1)m/2次所以,i从0取到n, 则循环共进行了: 0+(1-1)*1/2+...+(n-1)n/2=n(n+1)(n-1)/6所以时间复杂度为O(n^3).
我 们还应该区分算法的最坏情况的行为和期望行为。如快速排序的最 坏情况运行时间是 O(n^2),但期望时间是 O(nlogn)。通过每次都仔细 地选择基准值,我们有可能把平方情况 (即O(n^2)情况)的概率减小到几乎等于 0。在实际中,精心实现的快速排序一般都能以 (O(nlogn)时间运行。
下面是一些常用的记法:
访问数组中的元素是常数时间操作,或说O(1)操作。一个算法 如 果能在每个步骤去掉一半数据元素,如二分检索,通常它就取 O(logn)时间。用strcmp比较两个具有n个字符的串需要O(n)时间 。常规的矩阵乘算法是O(n^3),因为算出每个元素都需要将n对 元素相乘并加到一起,所有元素的个数是n^2。
指数时间算法通常来源于需要 求出所有可能结果。例如,n个元 素的集合共有2n个子集,所以要求出所有子集的算法将是O(2n)的 。指数算法一般说来是太复杂了,除非n的值非常小,因为,在 这个问题中增加一个元素就导致运行时间加倍。不幸的是,确实有许多问题 (如着名 的“巡回售货员问题” ),到目前为止找到的算法都是指数的。如果我们真的遇到这种情况, 通常应该用寻找近似最佳结果的算法替代之。
⑹ 如何计算一个算法的时间复杂度
求解算法的时间复杂度的具体步骤是:
1、找出算法中的基本语句:
算法中执行次数最多的那条语句就是基本语句,通常是最内层循环的循环体。
2、计算基本语句的执行次数的数量级:
(1)只需计算基本语句执行次数的数量级,这就意味着只要保证基本语句执行次数的函数中的最高次幂正确即可,可以忽略所有低次幂和最高次幂的系数。
(2)这样能够简化算法分析,并且使注意力集中在最重要的一点上:增长率。
3、用大Ο记号表示算法的时间性能:
(1)将基本语句执行次数的数量级放入大Ο记号中。
(2)如果算法中包含嵌套的循环,则基本语句通常是最内层的循环体,如果算法中包含并列的循环,则将并列循环的时间复杂度相加。例如:
for(i=1;i<=n;i++)x++;for(i=1;i<=n;i++)
for(j=1;j<=n;j++)x++;
(3)第一个for循环的时间复杂度为Ο(n),第二个for循环的时间复杂度为Ο(n2),则整个算法的时间复杂度为Ο(n+n2)=Ο(n2)。
⑺ 时间复杂度计算公式
时间复杂度计算公式如下
method1(){
System.out.println("祝你看了这篇文章"); //执行1次 System.out.println("诸事顺利"); //执行1次 System.out.println("万事如意"); //执行1次}// 1+1+1 = 3
method2()
for(int i=0;i<5;i++){ //i=0 执行1次;i<5 判断5+1次,等于5时判断后退出;i++ 执行5次 System.out.println("点赞发财!"); //执行5次 }} //1+(5+1)+5+5 = 17
method3(int n)
for(int i=0;i<n;i++){ //i=0 执行1次;i<n 执行n+1次;i++ 执行n次 System.out.println("点赞好运!"); //执行n次,你会有n次好运哦 }} //1+(n+1)+n+n = 3n+2
大O表示法
上面的时间复杂度的表示还是较复杂,我们一般都使用大O表示法来简化表示时间复杂度。
1、复杂度为常数,如23,9999,等等 都表示为O(1)
2、复杂度包含n时,省略系数与常数项,只取n的最高阶项
如:2n+45 为 O(n) ; 4n^3+6n^2+n 为O(n^3)
3、复杂度为对数时:如log5(n)、log2(n) 等等 都表示为 O(logn)
4、省略低阶,只取高阶 (即取最大的)
如:logn+nlogn 表示为O(nlogn)
⑻ 时间复杂度计算
算法中基本操作重复执行的次数是问题规模n的某个函数,用T(n)表示,若有某个辅助函数f(n),使得当n趋近于无穷大时,T(n)/f(n)的极限值为不等于零的常数,则称f(n)是T(n)的同数量级函数。记作T(n)=O(f(n)),称O(f(n))为算法的渐进时间复杂度(O是数量级的符号 ),简称时间复杂度。
计算步骤可以分解为:
只有可运行的语句才会增加时间复杂度,因此,上面方法里的内容除了循环之外,其余的可运行语句的复杂度都是O(1)。
时间复杂度 = for的O(n)+O(1) = 忽略常量 = O(n)。
设while循环里面的频度为t,2^t(2的t次方)<=n; 两边去对数t<=log2n,考虑最坏情况,取最大值t=log2n。
T(n) = O(log2n)。
排序算法的复杂度可以参见 排序算法 。
⑼ 在一个具体的程序中,程序的复杂度是如何计算的
算法的复杂性
算法的复杂性是算法效率的度量,是评价算法优劣的重要依据。一个算法的复杂性的高低体现在运行该算法所需要的计算机资源的多少上面,所需的资源越多,我们就说该算法的复杂性越高;反之,所需的资源越低,则该算法的复杂性越低。
计算机的资源,最重要的是时间和空间(即存储器)资源。因而,算法的复杂性有时间复杂性和空间复杂性之分。
不言而喻,对于任意给定的问题,设计出复杂性尽可能低的算法是我们在设计算法时追求的一个重要目标;另一方面,当给定的问题已有多种算法时,选择其中复杂性最低者,是我们在选用算法适应遵循的一个重要准则。因此,算法的复杂性分析对算法的设计或选用有着重要的指导意义和实用价值。
简言之,在算法学习过程中,我们必须首先学会对算法的分析,以确定或判断算法的优劣。
1.时间复杂性:
例1:设一程序段如下(为讨论方便,每行前加一行号)
(1) for i:=1 to n do
(2) for j:=1 to n do
(3) x:=x+1
......
试问在程序运行中各步执行的次数各为多少?
解答:
行号 次数(频度)
(1) n+1
(2) n*(n+1)
(3) n*n
可见,这段程序总的执行次数是:f(n)=2n2+2n+1。在这里,n可以表示问题的规模,当n趋向无穷大时,如果 f(n)的值很小,则算法优。作为初学者,我们可以用f(n)的数量级O来粗略地判断算法的时间复杂性,如上例中的时间复杂性可粗略地表示为T(n)=O(n2)。
2.空间复杂性:
例2:将一一维数组的数据(n个)逆序存放到原数组中,下面是实现该问题的两种算法:
算法1:for i:=1 to n do
b[i]:=a[n-i+1];
for i:=1 to n do
a[i]:=b[i];
算法2:for i:=1 to n div 2 do
begin
t:=a[i];a[i]:=a[n-i-1];a[n-i-1]:=t
end;
算法1的时间复杂度为2n,空间复杂度为2n
算法2的时间复杂度为3*n/2,空间复杂度为n+1
显然算法2比算法1优,这两种算法的空间复杂度可粗略地表示为S(n)=O(n)
信息学比赛中,经常是:只要不超过内存,尽可能用空间换时间。
⑽ 算法的时间复杂度如何计算
关于时间复杂度的计算是按照运算次数来进行的,比如1题:
Sum1(
int
n
)
{
int
p=1,
sum=0,
m
;
//1次
for
(m=1;
m<=n;
m++)
//n+1次
{
p*=m
;
//n次
sum+=p
;
}
//n次
return
(sum)
;
//1次
}
最后总的次数为
1+(n+1)+n+n+1+1=3n+3
所以时间复杂度f(o)=n;(时间复杂度只管n的最高次方,不管他的系数和表达式中的常量)
其余的一样,不明白的可以来问我