1

谁能解释为什么我总是从下面的代码中得到 0 的时间?我只想要一个毫秒计时器来计算从套接字发送和接收数据之间的延迟,但无论我尝试什么,我总是得到 0 的结果......我什至尝试了微秒,以防我的系统在不到1毫秒。

    printf("#: ");

    bzero(buffer,256);
    fgets(buffer,255,stdin);

    struct timeval start, end;

    unsigned long mtime, seconds, useconds;    

    gettimeofday(&start, NULL);  

    n = write(clientSocket,buffer,strlen(buffer));

    if (n < 0)
    {
        error("Error: Unable to write to socket!\n");
    }

    bzero(buffer,256);
    n = read(clientSocket,buffer,255);

    gettimeofday(&end, NULL);

    seconds  = end.tv_sec  - start.tv_sec;
    useconds = end.tv_usec - start.tv_usec;

    mtime = ((seconds) * 1000 + useconds/1000.0) + 0.5;      

    if (n < 0) 
    {
        error("Error: Unable to read from socket!\n");
    }

    printf("%s\n",buffer);
    printf("Delay: %lu microseconds\n", useconds);
4

2 回答 2

0

假设你的结果是 mtime: mtime 是整数,你用浮点数计算经过的时间,所以如果

((seconds) * 1000 + useconds/1000.0) + 0.5

评估为 < 1.0 转换为整数会将其削减为 0

只需将 mtime 类型更改为浮动,或者如果您可以保持微秒使用

((seconds) * 1000000 + useconds) + 500
于 2013-08-26T05:52:51.503 回答
0

useconds = end.tv_usec - start.tv_usec;是有问题的, unsigned long useconds;因为结果很可能是否定的。

建议:

unsigned long end_us,start_us,elapsed_us;

   .
   .
   .

end_us     = end.tv_sec   * 1000000  +  end.tv_usec;
start_us   = start.tv_sec * 1000000  +  start.tv_usec;

elapsed_us = end_us - start_us;

printf("elapsed microseconds: %lu\n", elapsed_us);

和:

mtime = ((seconds) * 1000 + useconds/1000.0) + 0.5;  

也要看一下:这会尝试转换为毫秒。目前尚不清楚为什么要添加 0.5。

建议:

elapsed_ms = elapsed_us / 1000;

但是定义elapsed_ms为整数会不必要地将结果减少到整毫秒。这里可以考虑一个浮点​​数。

于 2013-08-26T07:35:07.893 回答