在 600 行的长代码中,我有一部分代码计算了一些奇怪的东西。
idl = 0
print type(dl), dl
idl = int(dl*10)+1
print idl
这将返回:
<type 'float'> 0.1
1
此计算是在我的代码中的定义中完成的。这显然不是预期的结果。奇怪的是,当我将上面的代码复制到一个单独的 python 文件中时:
idl = 0
dl = 0.1
print type(dl), dl
idl = int(dl*10)+1
print idl
我得到:
<type 'float'> 0.1
2
这个问题的根源可能是什么?我已经提取了这些部分,以使问题变得简单,但是如果您愿意,我可以提供更多信息。