int gcd(int a, int b)
{
while(a!=b)
{
if(a > b)
a = a - b;
else
b = b - a;
}
return a;
}
这个算法的时间复杂度是多少?有人可以提供详细的解释吗?
int gcd(int a, int b)
{
while(a!=b)
{
if(a > b)
a = a - b;
else
b = b - a;
}
return a;
}
这个算法的时间复杂度是多少?有人可以提供详细的解释吗?