我希望了解日常编程中的时间复杂度。
举个例子: x, y 是某个变量
if (x == 1)
y = 2;
else
y = 0;
现在我可以将其重写为
y = (x==1)? 2:0;
现在我的编译器运行并说第一个程序使用 if else 需要 5 毫秒,而下面的程序需要 0 毫秒,这怎么可能?我了解时间复杂度,但这种时间计算总是让我困惑。
所以我想好吧,让我们来数一下我在第一种方法中所做的事情的数量 1次比较+1次分配,基于比较的一半将被忽略 现在我们采用第二种方法 1 次比较 + 1 次分配,另外一半也将被忽略。 第二种方法比第一种方法更好吗?
类似地,在日常生活中,我们会遇到很多代码,我们看到这种工作速度很快,而另一些则很慢,通过一些小的调整,事情会工作得更快 我想了解一下
涉及两件不同的事情,需要清楚理解: