5

我的双核机器上运行了以下代码。

当我在同一台 PC 上运行应用程序的一个或两个实例时,我的正确时间分辨率为 100 毫秒。但是,当我在同一台 PC 上运行同一应用程序的 3 个实例时,时间分辨率超过 100 毫秒。是否有可能使应用程序的 3 个实例以相同的 100 毫秒分辨率运行?这与我机器上的核心数量有关吗?

#include <signal.h>
#include <stdio.h>
#include <string.h>
#include <sys/time.h>

void timer_handler ( int signum)
{
   double time ; 
   // obtain time here
   gettimeofday() ;
   printf("timer_handler at time = %lf \n",
     time ) ;
}

int main ()
{ 
   struct sigaction sa;
   struct itimerval timer ;

   memset ( &sa, 0, sizeof ( sa ) ) ;

   sa.sa_handler = &timer_handler ;
   sigaction ( SIGALRM, &sa, NULL );

   timer.it_value.tv_sec = 0 ;
   timer.it_value.tv_usec = 100000;
   timer.it_interval.tv_sec = 0;
   timer.it_interval.tv_usec = 100000 ;

   setitimer ( ITIMER_REAL, &timer, NULL ) ;

   for (;;); 
}
4

1 回答 1

3

手册页setitimer(2)有以下内容:

定时器永远不会在请求的时间之前过期,但可能会在一段时间后(短)过期,这取决于系统定时器的分辨率和系统负载;见时间(7)。

显然,当您运行应用程序的更多实例时,系统负载会变得更高,并且计时器的准确性会降低。

如果您更换繁忙的循环:

for (;;);

使用较少的 CPU 限制(如 IO 限制的工作负载),计时将变得更加准确。

于 2011-09-07T21:34:49.593 回答