写了一个算法,想看运行时间。在网上找到的方法是定义两Clock变量start,end,再相减:
#include <time.h>int _tmain(int argc, _TCHAR* argv[])
{
clock_t start,end;
start = clock();

......

end = clock();
printf("Interval = %d ms\n",end-start);
return 0;
}我是在Vs2005下的控制台应用程序,结果得出的时间非常不稳定啊,一开始是几十ms,运行一次又变了十几ms,如果运行多次竟变成0ms,为什么会这样?