c# – 如何将值输出到精度足以揭示Debug和Release之间的算术差异
发布时间:2020-12-15 17:19:17 所属栏目:百科 来源:网络整理
导读:在我的程序中这个片段: trace.Log( String.Format("a= {0:F10} b= {1:F10} ab= {2}",b.GetPixel(447,517).GetBrightness(),(100F / 255F),517).GetBrightness() (100F / 255F))); 在调试模式下输出: a= 0.3921569000 b= 0.3921569000 ab= False 但这种不同
在我的程序中这个片段:
trace.Log( String.Format("a= {0:F10} b= {1:F10} a<b= {2}",b.GetPixel(447,517).GetBrightness(),(100F / 255F),517).GetBrightness() < (100F / 255F)) ); 在调试模式下输出: a= 0.3921569000 b= 0.3921569000 a<b= False 但这种不同的结果在发布模式中: a= 0.3921569000 b= 0.3921569000 a<b= True 在我寻找一种在两种模式之间获得一致算术的方法之前,我可以使用什么代码来显示变量中的隐藏精度,这些精度可能包含导致这种差异的变化?谢谢. 解决方法
有一个
standard numeric format string正是您正在寻找的东西:“r”(用于“往返”).它为您提供了一个具有足够数字的字符串,以保证在您再次解析它时,将完全重现您开始使用的相同位.
因此,使用{0:r}代替{0:F10},您将获得所有可用的精度. (编辑:李大同) 【声明】本站内容均来自网络,其相关言论仅代表作者个人观点,不代表本站立场。若无意侵犯到您的权利,请及时与联系站长删除相关内容! |