c# – 测量定时器的精度(例如秒表/ QueryPerformanceCounter)
鉴于C#中的秒表类可以使用下面的三个不同的定时器.
>系统计时器例如精度约为-10 ms,具体取决于可用 我们如何衡量这种可观察的精度?精度被定义为
现在,如果秒表使用HPET,这是否意味着我们可以使用秒表来测量与定时器频率相当的精度? 我不这么认为,因为这要求我们能够使用零差异或完全固定开销的计时器,据我所知,对于秒表来说并非如此.例如,使用HPET并调用时: var before_ticks = Stopwatch.GetTimestamp(); var after_ticks = Stopwatch.GetTimestamp(); var diff_ticks = after_ticks - before_ticks; 那么diff会说大约100个滴答或4000 ns,它也会有一些变化. 那么如何通过实验测量秒表的可观测精度呢?所以它支持下面所有可能的定时器模式. 我的想法是搜索最小滴答数!= 0,首先建立用于系统定时器的秒表滴答的开销,这将是0,直到例如10ms,即10 * 1000 * 10 = 100,000个刻度,因为系统定时器的刻度分辨率为100ns,但精度远不是这个.对于HPET,它永远不会为0,因为调用Stopwatch.GetTimestamp()的开销高于计时器的频率. 但这并没有说明我们使用定时器测量的精确程度.我的定义是我们可以可靠地测量的差异有多小. 可以通过测量不同的迭代次数ala来执行搜索: var before = Stopwatch.GetTimestamp(); for (int i = 0; i < iterations; ++i) { action(); // Calling a no-op delegate Action since this cannot be inlined } var after = Stopwatch.GetTimestamp(); 首先,可以找到下限,其??中对于给定迭代次数的所有10个测量结果都产生非零数量的刻度,将这些测量结果保存在长ticksLower [10]中.然后,最接近可能的迭代次数产生的滴答差异始终高于前10个测量中的任何一个,将其保存在long ticksUpper [10]中. 最差情况精度将是ticksUpper中的最高刻度减去ticksLower中的最低刻度. 这听起来合理吗? 为什么我想知道秒表的可观察精度?因为这可以用于确定您需要测量的时间长度,以获得微基准测量的一定精度水平.即对于3位精度,长度应该是计时器精度的> 1000倍.当然,人们可以用这个长度多次测量. 解决方法
Stopwatch类公开
Frequency属性,这是调用SafeNativeMethods.
QueryPerformanceFrequency的直接结果.以下是属性页面的摘录:
(编辑:李大同) 【声明】本站内容均来自网络,其相关言论仅代表作者个人观点,不代表本站立场。若无意侵犯到您的权利,请及时与联系站长删除相关内容! |