如何在线程中实现精度为1毫秒的延时,且不占用CPU 需要在线程中实现一个延时,该延时需要精确到1毫秒,而且要像Sleep似的不占用CPU资源。如果使用获取CPU频率的办法,就会使得CPU占用率达到100%,肯定不能使用的。请各位大拿教我一种办法,谢谢了! 解决方案 » 免费领取超大流量手机卡,每月29元包185G流量+100分钟通话, 中国电信官方发货 如果是 用户接口线程,就用 SetTimer 吧,呵呵1MS 不用Sleep怎么做? http://www.vckbase.com/document/viewdoc/?id=1301 觉得好像不可能,如果不占用CPU的话,CPU就要对线程和进程进行调度,这样要花多少时间呢而且系统内核你又不能直接控制,这个调度时间应该是不可预知的了 Sleep是无法保证精确度的。可以考虑多媒体定时器。 timeSetEvent/timeKillEventOS非实时操作系统,很难满足你的要求。 向大家请教一下 rc文件的问题 请教一个ATL中正则表达式匹配的问题,多谢了!! SetTimer的问题 逻辑驱动器编号与分区表中的盘的对应方法? 蛋疼的问题 会飞了的菜鸟+ 怎样删除CListCtrl中所有的column? 特急!!如何取得FTP服务器上文件的时间属性? 向数据插入数据出错 这个问题急! 请教为什么我在CStatic的派生类中定义的OnCtlColor消息相应函数不被执行??? 中文乱码问题...
OS非实时操作系统,很难满足你的要求。