背景:
前段时间,我为我们的一个内部程序建立了一个记录和分类应用程序崩溃的系统。当时,我结合使用频率和累计损失时间(程序启动和崩溃之间的时间)来确定崩溃类型的优先级。它工作得相当好。
现在,The Powers That Be 想要关于正在处理的每种类型的崩溃成本的可靠数字。或者至少,看起来可靠的数字。我想我可以使用总损失时间乘以某个合理的数字,但这似乎很狡猾。
问题:
是否有任何既定的方法来计算应用程序崩溃的实际成本?或者做不到这一点,发表的研究推测这样的成本?
共识
准确性是不可能的,但是如果始终如一地应用并且清楚地记录其局限性,则基于正常运行时间的估计就足够了。谢谢,马特,猎户座,花时间回答这个问题。