如果我使用 setTimeout 如下
setTimeout(function (){
console.log("Delay");
}, 100);
但是我们怎么知道 100 毫秒对于所有条件下的所有计算机来说都是正确的时间量呢?
如果我使用 setTimeout 如下
setTimeout(function (){
console.log("Delay");
}, 100);
但是我们怎么知道 100 毫秒对于所有条件下的所有计算机来说都是正确的时间量呢?