我有一个问题:在 SQL Server 中有一种decimal
数据类型。
我可以将此数据类型转换为二进制,因此我可以将查询编写为
declare @deci decimal(18,2)
set @deci = 2.33
print cast(@deci as varbinary)
这个查询的结果是——
0x12020001E9000000
我的问题是这种从十进制到二进制的转换的转换规则是什么……有人可以向我解释吗?
我有一个问题:在 SQL Server 中有一种decimal
数据类型。
我可以将此数据类型转换为二进制,因此我可以将查询编写为
declare @deci decimal(18,2)
set @deci = 2.33
print cast(@deci as varbinary)
这个查询的结果是——
0x12020001E9000000
我的问题是这种从十进制到二进制的转换的转换规则是什么……有人可以向我解释吗?