0

我正在使用一个周期性计时器,并在SIGALRM接收到两个信号之间进行计时。我观察到的是,它itimer可能会在我设定的时间之前或之后过期。例如,如果我将其设置为,它可能会在或1m sec到期。0.9998msec1.0023msec

计时器到期不应该总是大于设置的吗?更少的时间是我不明白的。

这是我的代码:

enter code here     
#include <stdio.h>
#include <signal.h>
#include <sys/time.h>
#include <stdlib.h>
#include <time.h>

#define INTERVAL 1000


struct timespec ti[100];
int s=0;


void ex(int i)
{int d=0;
struct timespec t[100],s1,s2;
   for(d=0;d<99;d++)
    {
    s1= ti[d];
    s2= ti[d+1];
   printf("%u:%u\t%u:%u\t", s1.tv_sec, s1.tv_nsec, s2.tv_sec, s2.tv_nsec);

    if ((s2.tv_nsec- s1.tv_nsec)<0) {
        t[d].tv_sec = s2.tv_sec-s1.tv_sec-1;
        t[d].tv_nsec = 1000000000 +s2.tv_nsec -s1.tv_nsec;
    } else {
        t[d].tv_sec = s2.tv_sec-s1.tv_sec;
        t[d].tv_nsec = s2.tv_nsec-s1.tv_nsec;
    }

    printf("%u:%u\n",t[d].tv_sec,t[d].tv_nsec);  

    } 
   exit(0);
}

void alarm_wakeup (int i)
{  
   clock_gettime(CLOCK_MONOTONIC, &ti[s]); 
    s++;
    if(s==100)
    { ex(0);
    }
}


void main ()
{
  struct itimerval tout_val;
  tout_val.it_interval.tv_sec = 0;
  tout_val.it_interval.tv_usec = INTERVAL;
  tout_val.it_value.tv_sec = 0; 
  tout_val.it_value.tv_usec = INTERVAL;


  setitimer(ITIMER_REAL, &tout_val,0);

  signal(SIGALRM,alarm_wakeup); /* set the Alarm signal capture */
 signal(SIGINT,ex);

  while (1)
{ 
}

}
4

1 回答 1

0

当定时器到期时,信号被提升并且定时器被重新调度。

但是,在发出的信号和正在处理的信号之间可能存在延迟 - 如果该进程尚未运行,则必须重新安排它。这意味着在计时器的实际到期和clock_gettime()信号处理程序中的调用运行之间存在潜在的可变延迟。

如果调用之前的这个延迟clock_gettime()比下一次迭代要长,那么clock_gettime()调用之间的时间将略小于 1ms,即使随后的计时器到期之间有 1ms 的间隙。

以图解形式:

time:                0ms...............1ms...............2ms...............3ms
timer expiry:        X                 X                 X                 X
signal handler runs:  S                      S            S                  S

您可以看到,第二个信号处理程序运行之前的较长延迟使得第三个信号看起来“早”,即使底层计时器不是。

于 2012-10-05T04:01:29.020 回答