危险的浮点数float

今天写程序又以为我见鬼了!最后查出来发现原来又是浮点数搞的鬼!

情况大致是这样的,我想要测试向量运算的速度,所以要对一个浮点数向量进行求和运算,代码如下:

int vect_size=100000000;
vector<float> vect1(vect_size,0.1);
float sum=0;
for(int i=0;i<vect1.size();++i){
	sum+=vect1[i];
}
printf("%f\n",sum);

10^8个0.1求和,地球人都知道结果应该是10^7,运行结果竟然是……2.097152*10^7

我了个擦!我读书少你也不能这么骗我啊!

当vect_size为10000时,运行结果为999.902893,说明错误是累加形成的,并非溢出之类的造成的。

注意我保留了小数点后这么多位,原因是在不同的电脑上运行,结果是相同的,即都会产生这么大的偏差。

如果我把float换成double,那么结果是没有问题的。

我猜想了一下原因:

float的精度有一定的上限,对于任何小数,float都只能是用一个最接近的数来表示,并不是完全一样的数,即float是不连续的。所以0.1在float中是不存在的,只存在0.100000001(举个例子~),而这个规则是float的定义造成的,并非编译器或运行环境决定的,所以在不同的电脑上运行结果相同。此外,double的精度更高,所以在1亿这个量级上还看不出误差。

是否真是这样,等有时间研究下float再说。

不过这么看,float真是蛮危险的,因为其反直觉,所以很有可能给程序造成一些意料之外的结果(就是我说的见鬼了)。

我上一次见鬼也是跟float有关,大致代码如下:

float f=0.1;
if(f==0.1){
   printf("equal!");
}

当时还是用python写的,死活不通过……其实原因上面已经提到了。

float当真反直觉!代码中的不确定因素!

时间: 2024-10-11 18:01:19

危险的浮点数float的相关文章

浮点数float累加误差分析与解决

1.  浮点数IEEE 754表示方法 要搞清楚float累加为什么会产生误差,必须先大致理解float在机器里怎么存储的,具体的表示参考[1] 和 [2], 这里只介绍一下组成 由上图可知(摘在[2]), 浮点数由: 符号位 + 指数位 + 尾数部分, 三部分组成.由于机器中都是由二进制存储的,那么一个10进制的小数如何表示成二进制.例如: 8.25转成二进制为1000.01, 这是因为 1000.01 = 1*2^3 + 0*2^2 + 0*2^1 + 0*2^0 + 0*2^-1 + 2*

Java 浮点数 float或double类型的表示范围和精度

隐约记得,浮点数判断大小好像有陷阱,因为底层的二进制数不能精确表示所有的小数.有时候会产生让人觉得莫名其妙的事情. 如在java中, 0.99999999f==1f //true 0.9f==1f //false 要明白这些,首先要搞清楚float和double在内存结构 1.内存结构 float和double的范围是由指数的位数来决定的. float的指数位有8位,而double的指数位有11位,分布如下: float: 1bit(符号位) 8bits(指数位) 23bits(尾数位) dou

Java浮点数float和double精确计算的精度误差问题总结

1.float整数计算误差 案例:会员积分字段采用float类型,导致计算会员积分时,7位整数的数据计算结果出现误差. 原因:超出float精度范围,无法精确计算. float和double的精度是由尾数的位数来决定的.浮点数在内存中是按科学计数法来存储的,其整数部分始终是一个隐含着的“1”,由于它是不变的,故不能对精度造成影响. float:2^23 = 8388608,一共七位,这意味着最多能有7位有效数字,但绝对能保证的为6位,也即float的精度为6~7位有效数字: double:2^5

IEEE浮点数float、double的存储结构

众所周知,C的float.VB的Single都是32位浮点数变量类型(也叫单精度浮点数),C的double和VB的Double则都是64位的浮点数变量类型(也叫双精度浮点数).有些编译器还支持更屌的long double(貌似是80位还是128位的我不清楚,总之存在这种变态玩意儿.)那么这些浮点数从最底层的角度来看,它们是怎么存储的呢?我来举个例子解释下.计算机用的是二进制,如果我用二进制跟大家解释大家可能觉得看不懂,那我就用十进制来跟大家解释.浮点数分三个部分,第一个部分是有效数字,第二个部分

浮点数float累加误差解决方式总结

首先是float累加产生误差的原因,该部分转自:http://blog.csdn.net/zhrh0096/article/details/38589067 1.  浮点数IEEE 754表示方法 要搞清楚float累加为什么会产生误差,必须先大致理解float在机器里怎么存储的,具体的表示参考[1] 和 [2], 这里只介绍一下组成 由上图可知(摘在[2]), 浮点数由: 符号位 + 指数位 + 尾数部分, 三部分组成.由于机器中都是由二进制存储的,那么一个10进制的小数如何表示成二进制.例如

php浮点数(float)运算中转整形(int)问题

$f = 0.58; var_dump(intval($f * 100.0)); 也许你认为他会输出58,但是实际上他输出的是57.原因是作为浮点型数据,其精度已经损失了一部分,达不到完全精确.所以永远不要相信浮点数结果精确到了最后一位,也永远不要比较两个浮点数是否相等. php中浮点数是弱类型,对于整数或者经过运算以后结果是整数的浮点数,php能当作整数对待,但类型还是浮点型不变.但如果经过运算以后不是整数,那php就把结果当作严格的浮点数对待了 在实际的开发中我们可以使用如下逻辑来解决这种境

泊学Swift系列之Swift Up and Running——整数和浮点数

Swift Up and Running——整数和浮点数 泊学原文 泊学技法视频 Swift里,数字分为整数(例如:1 / 10 / 100/ 1000等)和浮点数(例如:3.14 / 1.44 / 2.71等).我们先来看整数. 整数 - Int & UInt 根据一个整数变量占据的内容空间(8 / 16 / 32 / 64-bit)以及整数是否带有符号(Unsinged),Swift一共定义了8种不同的整数类型: Int8 Int16 Int32 Int64 UInt8 UInt16 UIn

C中的Float分析

C/C++中, 浮点数,float以及 double 在内存中是怎样存储的? 假如,我有32-bit 8bit 8bit 8bit 0 0 0 0 0 1 1 1 1 对于整形int,我们可以很快得出,这是 int i = 15的内存形式. 假设,最低位的bit的位权为-1,最高位为30. 那么这个就不再表示数字15了,而是 2^-1+2^0+2^1+2^2 = 7.5 了. 当然,上面只是假设,那么真正的Float 浮点型 在内存中是什么样子的呢? 首先需要知道的是 float 在内存中 占

浮点数的二进制表示

基础知识: 十进制转十六进制: 十六进制转二进制: IEEE制定的浮点数表示规则: 了解: 目前C/C++编译器标准都遵照IEEE制定的浮点数表示法来进行float,double运算.这种结构是一种科学计数法,用符号.指数和尾数来表示,底数定为2--即把一个浮点数表示为尾数乘以2的指数次方再添上符号.下面是具体的规格: 符号位     阶码      尾数     长度 float           1          8        23      32 double