0

我会尽量保持简单,所以请随时询问更多细节。

我有一个应用程序,我使用 jQuery 1.8.3 和 $.ajax 方法来发布数据...... ajax 调用 .net wcf 服务......

我的应用程序有一个客户端控制台,我可以在其中记录调试信息。所以这里的js代码:

    Console.WriteLine(Console.GetTime());
    xhr = jQuery.ajax({
        cache: false,
        async: async,
        url: url,
        type: "POST",
        processData: true,
        contentType: "application/json",
        timeout: 600000,
        dataType: "json",
        data: data,
        success: AjaxSuccess,
        error: AjaxError
    });

Ajax 调用工作正确...(Console.GetTime() 只是格式化当前时间)。

服务器和客户端都在同一台机器上运行...

我试图挖掘代码以找出一些性能问题。由于某种原因,该函数大约需要 1100 毫秒。在服务器端,我证明它用了不到 100 毫秒...

所以这是我的问题......为什么在我触发 $.ajax 命令和服务器上的操作开始之间会有某种延迟?我比较了双方的时间戳,总是有大约 1000 毫秒....有什么想法吗?

非常感谢

4

0 回答 0