什么是深度学习领域的 FLOPS?为什么我们不使用 FLO 这个术语?
我们使用术语 FLOPS 来衡量冻结深度学习网络的操作数量。
根据 Wikipedia,FLOPS = 每秒浮点运算。当我们测试计算单元时,我们应该考虑时间。但是在测量深度学习网络的情况下,我如何理解这个时间概念呢?我们不应该只使用 FLO(浮点运算)这个术语吗?
为什么人们使用 FLOPS 这个词?如果有什么我不知道,那是什么?
====附件===
我提到的冷冻深度学习网络只是一种软件。这与硬件无关。在深度学习领域,人们使用术语 FLOPS 来衡量运行网络模型需要多少操作。在这种情况下,我认为我们应该使用 FLO 一词。我认为人们对 FLOPS 一词感到困惑,我想知道其他人是否有同样的想法,或者我是否错了。
请看这些案例:
https://iq.opengenus.org/floating-point-operations-per-second-flops-of-machine-learning-models/