他们都提供毫秒分辨率吗?
Linux clock_gettime(CLOCK_MONOTONIC)奇怪的非单调行为
C:Windows和其他操作系统中clock()的不同实现?
了解clock_gettime的问题
如何查看用户是否设置时钟?
在linux的进程间通信应该使用哪个时钟?
不,他们没有毫秒精度。 clock和GetTickCount在大多数系统上具有4到15毫秒的精度。 QueryPerformanceCounter的精度在微秒到纳秒范围内。
clock是GetTickCount一个包装,如果你使用微软的C运行时库,如果你使用的是MS编译器,你可能是。 GetTickCount返回一个以毫秒为单位的值,但在一毫秒后它不会增加1毫秒。 只有当系统时钟中断发生时才会增加,这个时间间隔是每4到15毫秒 – 通常是15ms,但是它可以被应用程序改变。 这会影响整个计算机:它影响线程调度,并且更频繁的中断的开销也会使实际运行的程序代码的cpu时间更少,所以除非真的需要,否则不要这样做。 如果你的计算机的打勾时间比15ms多一些,其他一些应用程序已经修改了打勾中断频率。
QueryPerformanceCounter使用系统上可用的任何高分辨率计时器。 在过去,通常是基于处理器内部的时钟周期计数,所以计算在2-3GHz或约0.5ns。 不幸的是,一些处理器会改变计数器在处于低功耗状态时的速率,而在多cpu系统(即多处理器插槽)中,如果cpu速度并不一样,则会出现问题。 Windows现在使用其他更可靠的来源,但它们的分辨率不如处理器那么高。 QueryPerformanceFrequency告诉您一秒钟内有多少个刻度。 要获得毫秒,将QPC样本的差值乘以1000,除以QueryPerformanceFrequency的结果。
clock
一个C ++函数 它会返回自应用程序启动以来cpu的滴答数。 要将其转换为秒,请用CLOCKS_PER_SEC分隔。
GetTickCount
QueryPerformanceCounter
一个Win32 API函数。 性能计数器是随着时间的推移而增加的高分辨率计数器 。 要将其转换为以秒为单位按QueryPerformanceFrequency划分。
版权声明:本文内容由互联网用户自发贡献,该文观点与技术仅代表作者本人。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如发现本站有涉嫌侵权/违法违规的内容, 请发送邮件至 [email protected] 举报,一经查实,本站将立刻删除。