windows下实现微秒级的延时

1.微秒级的延时肯定不能基于消息(SetTimer函数),因为一出现消息堵塞等就会影响精
度,而且setTimer单位才是毫秒.实际响应时间可能要到55毫秒左右.

2.微秒级的延时也不能不能基于中断,VxD最快的时钟服务程序Set_Global_Time_Out函数
才能保证1毫秒的精度.其他挂接int 8H中断处理函数等,只能保证55ms的精度.(有时还不
能)

3.因此可以想到汇编下的那种基于循环执行语句的那种延时.但汇编那种代码不通用,跟
cpu的频率有关.

所以可以用windows下的几个函数来写出通用代
码.GetTickCout,timeGetTime,QueryPerformanceCounter.
1)GetTickCout响应只能保证55ms的精度
2)timeGetTime只能保证1ms的精度
3)而QueryPerformanceCounter函数不依赖计算中断的次数,而是靠读取别的硬件时钟来
实现的,可以有0.8微秒的精度.这个系统不支持windows 95以下的系统,不过这些系统应
该没人用了吧.呵呵.

下面是示例代码:
//LARGE_INTEGER类型类似一个64位的整型,是一个union,里面是LongLong类型和两个
long组成的结构体的union.
//QueryPerformanceFrequency函数得到你的计算机里高精度计时器每秒计时多少次,
//参数LARGE_INTEGER,返回false表示你的当前计算机硬件不支持高精度计时器.
//QueryPerformanceCounter函数得到当前计时器记了多少次.类似与GetTickCout.
#include <windows.h>
#include <iostream>
using namespace std;

void main(){

int delayTime = 20; //微秒级的延时.

LARGE_INTEGER m_liPerfFreq={0};

if (!QueryPerformanceFrequency(&m_liPerfFreq))
{
cout <<"你的当前计算机硬件不支持高精度计时器"<<endl;
return;
}
     
    LARGE_INTEGER m_liPerfStart={0};
    QueryPerformanceCounter(&m_liPerfStart);

LARGE_INTEGER liPerfNow={0};
for(;;)
{

QueryPerformanceCounter(&liPerfNow);
double time=( ((liPerfNow.QuadPart - 
m_liPerfStart.QuadPart)*1000000)/(double)m_liPerfFreq.QuadPart);
if (time >= delayTime)
break;

}
cout.precision(40);
cout << "开始" <<(double)m_liPerfStart.QuadPart <<endl;
cout << "结束" <<(double)liPerfNow.QuadPart <<endl;
cout<<"时间精度"<<(1/(double)m_liPerfFreq.QuadPart)*1000000<<"微秒"<<endl;
cout << "延时" <<( ((liPerfNow.QuadPart - m_liPerfStart.QuadPart)
*1000000)/(double)m_liPerfFreq.QuadPart)<<"微秒"<<endl;

}

因为windows是多任务系统,只要保证windows执行这段代码时不被其他进程打断,就可以
保证延时微秒级成功.出现打断的几率很小.一般可以不考虑.如果代码执行时间低于一
个时间片,那就100%不会被打断了.

在SDK中,可以用DWORD timeGetTime(VOID)函数获取系统时间,其返回值是毫秒单位的。可以用其实现延时功能的函数。
void Delay(DWORD delayTime)
{
    DWORD delayTimeBegin;
    DWORD delayTimeEnd;
    delayTimeBegin=timeGetTime();
    do
    {
        delayTimeEnd=timeGetTime();
    }while(delayTimeEnd-delayTimeBegin<delayTime)
}
注: 在使用timeGetTime之前应先包含头文件#i nclude <Mmsystem.h>或#i nclude <Windows.h>并在project->settings->link->Object/library modules中添加winmm.lib 
    也可以在文件头部添加 #pragma comment( lib,"winmm.lib" )
命令行:#pragma comment( lib,"xxx.lib" )时预编译处理指令,让vc将winmm.lib添加到工程中去进行编译。

在Windows平台下,常用的计时器有两种,一种是timeGetTime多媒体计时器,它可以提供毫秒级的计时。但这个精度对很多应用场合而言 还是太粗糙了。另一种是QueryPerformanceCount计数器,随系统的不同可以提供微秒级的计数。对于实时图形处理、多媒体数据流处理、或 者实时系统构造的程序员,善用QueryPerformanceCount/QueryPerformanceFrequency是一项基本功。

  本文要介绍的,是另一种直接利用Pentium CPU内部时间戳进行计时的高精度计时手段。以下讨论主要得益于《Windows图形编程》一书,第15页-17页,有兴趣的读者可以直接参考该书。关于 RDTSC指令的详细讨论,可以参考Intel产品手册。本文仅仅作抛砖之用。 
  在Intel Pentium以上级别的CPU中,有一个称为“时间戳(Time Stamp)”的部件,它以64位无符号整型数的格式,记录了自CPU上电以来所经过的时钟周期数。由于目前的CPU主频都非常高,因此这个部件可以达到 纳秒级的计时精度。这个精确性是上述两种方法所无法比拟的。

  在Pentium以上的CPU中,提供了一条机器指令RDTSC(Read Time Stamp Counter)来读取这个时间戳的数字,并将其保存在EDX:EAX寄存器对中。由于EDX:EAX寄存器对恰好是Win32平台下C++语言保存函数 返回值的寄存器,所以我们可以把这条指令看成是一个普通的函数调用。像这样:

inline unsigned __int64 GetCycleCount() 

__asm RDTSC 
}

但是不行,因为RDTSC不被C++的内嵌汇编器直接支持,所以我们要用_emit伪指令直接嵌入该指令的机器码形式0X0F、0X31,如下:

inline unsigned __int64 GetCycleCount() 

__asm _emit 0x0F 
__asm _emit 0x31 
}

以后在需要计数器的场合,可以像使用普通的Win32 API一样,调用两次GetCycleCount函数,比较两个返回值的差,像这样:

unsigned long t; 
t = (unsigned long)GetCycleCount(); 
//Do Something time-intensive ... 
t -= (unsigned long)GetCycleCount();

  《Windows图形编程》第15页编写了一个类,把这个计数器封装起来。有兴趣的读者可以去参考那个类的代码。作者为了更精确的定时,做了一 点小小的改进,把执行RDTSC指令的时间,通过连续两次调用GetCycleCount函数计算出来并保存了起来,以后每次计时结束后,都从实际得到的 计数中减掉这一小段时间,以得到更准确的计时数字。但我个人觉得这一点点改进意义不大。在我的机器上实测,这条指令大概花掉了几十到100多个周期,在 Celeron 800MHz的机器上,这不过是十分之一微秒的时间。对大多数应用来说,这点时间完全可以忽略不计;而对那些确实要精确到纳秒数量级的应用来说,这个补偿 也过于粗糙了。

这个方法的优点是:

1.高精度。可以直接达到纳秒级的计时精度(在1GHz的CPU上每个时钟周期就是一纳秒),这是其他计时方法所难以企及的。

2.成本低。timeGetTime 函数需要链接多媒体库winmm.lib,QueryPerformance* 函数根据MSDN的说明,需要硬件的支持(虽然我还没有见过不支持的机器)和KERNEL库的支持,所以二者都只能在Windows平台下使用(关于 DOS平台下的高精度计时问题,可以参考《图形程序开发人员指南》,里面有关于控制定时器8253的详细说明)。但RDTSC指令是一条CPU指令,凡是 i386平台下Pentium以上的机器均支持,甚至没有平台的限制(我相信i386版本UNIX和Linux下这个方法同样适用,但没有条件试验),而 且函数调用的开销是最小的。

3.具有和CPU主频直接对应的速率关系。一个计数相当于1/(CPU主频Hz数)秒,这样只要知道了CPU的主频,可以直接计算出时间。这和 QueryPerformanceCount不同,后者需要通过QueryPerformanceFrequency获取当前计数器每秒的计数次数才能换 算成时间。

这个方法的缺点是:

1.现有的C/C++编译器多数不直接支持使用RDTSC指令,需要用直接嵌入机器码的方式编程,比较麻烦。

2.数据抖动比较厉害。其实对任何计量手段而言,精度和稳定性永远是一对矛盾。如果用低精度的timeGetTime来计时,基本上每次计时的结果都是相同的;而RDTSC指令每次结果都不一样,经常有几百甚至上千的差距。这是这种方法高精度本身固有的矛盾。

关于这个方法计时的最大长度,我们可以简单的用下列公式计算:

自CPU上电以来的秒数 = RDTSC读出的周期数 / CPU主频速率(Hz)

64位无符号整数所能表达的最大数字是1.8×10^19,在我的Celeron 800上可以计时大约700年(书中说可以在200MHz的Pentium上计时117年,这个数字不知道是怎么得出来的,与我的计算有出入)。无论如何,我们大可不必关心溢出的问题。

下面是几个小例子,简要比较了三种计时方法的用法与精度

//Timer1.cpp 使用了RDTSC指令的Timer类//KTimer类的定义可以参见《Windows图形编程》P15 
//编译行:CL Timer1.cpp /link USER32.lib 
#include <stdio.h> 
#include "KTimer.h" 
main() 

unsigned t; 
KTimer timer; 
timer.Start(); 
Sleep(1000); 
t = timer.Stop(); 
printf("Lasting Time: %d/n",t); 
}

//Timer2.cpp 使用了timeGetTime函数 
//需包含<mmsys.h>,但由于Windows头文件错综复杂的关系 
//简单包含<windows.h>比较偷懒:) 
//编译行:CL timer2.cpp /link winmm.lib 
#include <windows.h> 
#include <stdio.h>

main() 

DWORD t1, t2; 
t1 = timeGetTime(); 
Sleep(1000); 
t2 = timeGetTime(); 
printf("Begin Time: %u/n", t1); 
printf("End Time: %u/n", t2); 
printf("Lasting Time: %u/n",(t2-t1)); 
}

//Timer3.cpp 使用了QueryPerformanceCounter函数 
//编译行:CL timer3.cpp /link KERNEl32.lib 
#include <windows.h> 
#include <stdio.h>

main() 

LARGE_INTEGER t1, t2, tc; 
QueryPerformanceFrequency(&tc); 
printf("Frequency: %u/n", tc.QuadPart); 
QueryPerformanceCounter(&t1); 
Sleep(1000); 
QueryPerformanceCounter(&t2); 
printf("Begin Time: %u/n", t1.QuadPart); 
printf("End Time: %u/n", t2.QuadPart); 
printf("Lasting Time: %u/n",( t2.QuadPart- t1.QuadPart)); 
}

//////////////////////////////////////////////// 
//以上三个示例程序都是测试1秒钟休眠所耗费的时间 
file://测/试环境:Celeron 800MHz / 256M SDRAM 
// Windows 2000 Professional SP2 
// Microsoft Visual C++ 6.0 SP5 
////////////////////////////////////////////////

以下是Timer1的运行结果,使用的是高精度的RDTSC指令 
Lasting Time: 804586872

以下是Timer2的运行结果,使用的是最粗糙的timeGetTime API 
Begin Time: 20254254 
End Time: 20255255 
Lasting Time: 1001

以下是Timer3的运行结果,使用的是QueryPerformanceCount API 
Frequency: 3579545 
Begin Time: 3804729124 
End Time: 3808298836 
Lasting Time: 3569712

时间: 2024-08-28 02:55:50

windows下实现微秒级的延时的相关文章

织女星开发板RISC-V内核实现微秒级精确延时

前言 收到VEGA织女星开发板也有一段时间了,好久没玩了,想驱动个OLED屏,但是首先要实现IIC协议,而实现IIC协议,最基本的就是需要一个精确的延时函数,所以研究了一下如何来写一个精确的延时函数.众所周知,ARM Cortex-M内核都有一个24位的SysTick系统节拍定时器,它是一个简易的周期定时器,用于提供时基,多为操作系统所使用.RV32M1的RISC-V内核也有一个SysTick定时器,只不过它不属于内核,而是使用的一个外部通用定时器,即LPIT0( low power perio

【原创】浅说windows下的中断请求级IRQL

一 中断分类 根据中断源不同,可以将中断分为 硬件中断:硬件上产生的中断,可以来自处理器的内部和外部.处理器的外部中断可以来自各种PIN信号接口和Local APIC的LINT0和LINT1引脚,以及外部的I/O APIC发送过来的中断信息. 软件中断:软件上产生的中断,使用INT指令主动发起的中断,如INT 0X40,调用0X40号的中断服务例程. 硬件中断源又可以分为 可屏蔽中断:可屏蔽的中断如下 通过处理器的INTR pin接收的中断请求,典型地,INTR连接到8259A PIC上,在支持

利用select函数的定时返回功能在Windows上实现微秒级的cpu休眠

说明:在调用该函数前要先调用WSAStartup初始化Winsock void uSleep(uint32_t usec) { struct timeval timeout; fd_set fds; FD_ZERO(&fds); int32_t fd = socket(AF_INET, SOCK_DGRAM, 0); FD_SET(fd, &fds); timeout.tv_sec = usec / 1000000; timeout.tv_usec = usec % 1000000; in

windows下基于(QPC)实现的微秒级延时

1.为什么会写windows下微秒级延时 在上一篇 实现memcpy()函数及过程总结 中测试memcpy的效率中,测试时间的拷贝效率在微秒级别,需要使用微秒级时间间隔计数. windows下提供QueryPerformanceCounter(查询高性能计数器),QPC是基于硬件计数器,获取高分辨率时间戳. 参考:Acquiring high-resolution time stamps 应用形式: 1 LARGE_INTEGER start, end; 2 LARGE_INTEGER Freq

在Windows及Linux下获取毫秒级运行时间的方法

在Windows下获取毫秒级运行时间的方法 头文件:<Windows.h> 函数原型: /*获取时钟频率,保存在结构LARGE_INTEGER中***/ WINBASEAPI BOOL WINAPI QueryPerformanceFrequency( _Out_ LARGE_INTEGER * lpFrequency ); /*获取从某个时间点开始的时钟周期数,保存在结构LARGE_INTEGER中**/ WINBASEAPI BOOL WINAPI QueryPerformanceFreq

linux下C语言获取微秒级时间

使用C语言在linux环境下获得微秒级时间 1.数据结构 int gettimeofday(struct timeval*tv, struct timezone *tz); 其参数tv是保存获取时间结果的结构体,参数tz用于保存时区结果: struct timezone{ int tz_minuteswest;/*格林威治时间往西方的时差*/ int tz_dsttime;/*DST 时间的修正方式*/ } timezone 参数若不使用则传入NULL即可. 而结构体timeval的定义为: s

linux和windows下,C/C++的sleep函数

简介: 函数名: sleep 功 能: 执行挂起一段时间 用 法: unsigned sleep(unsigned seconds); 在VC中使用带上头文件 #include <windows.h> 在gcc编译器中,使用的头文件因gcc版本的不同而不同 linux系统需要添加的头文件 #include <unistd.h> 注意 : 在VC中Sleep中的第一个英文字符为大写的"S" 在标准C中是sleep, 不要大写.. 下面使用大写的来说明,, 具体用什

Windows下获取高精度时间注意事项

Windows下获取高精度时间注意事项 [转贴 AdamWu] 花了很长时间才得到的经验,与大家分享. 1. RDTSC - 粒度: 纳秒级 不推荐优势: 几乎是能够获得最细粒度的计数器抛弃理由: A) 定义模糊 - 曾经据说是处理器的cycle counter,但是后来似乎又不是了.有的机器上每秒的TSC增长值等于CPU频率,有的却是一个不对应任何配置的数.到底是什么,Intel也没解释清楚. B) 不准确 - 这是最重大的缺陷.再细的粒度,不准的话也没用,至少不能当时间用.在有的CPU上,特

windows下编译安装BOOST

boost的编译和使用,经过搜集资料和总结,记录成文.感谢文后所列参考资料的作者. 1 下载 地址:http://sourceforge.net/projects/boost/files/boost/1.56.0/ 可以选择 boost_1_56_0.7z 下载. 2 编译 2.1 生成boost的自用的编译工具bjam.exe 解压后,使用VS2013编译.首先打开"VS2013 开发人员命令提示",cd 到boost解压后的根目录:E:\XXX\boost_1_56_0,执行boo