Я прочитал этот ответ где-то, но я не понимаю его точно:
Я понимаю, что Windows увеличивает часы каждый раз в секунду (156001 100 наносекунд) со значением коррекции curTime (156001) + - N). Но когда часы считываются с использованием GetSystemTime, рутинная интерполяция в интервале 156001 наносекунд * 100 вывести указанную точность?
Может кто-нибудь попытается объяснить это мне?
Что такое curTimeIncrement
, curTimeAdjustment
и как Windows может это сделать?
Каков эффект для получения точного времени?
Это правда только для Windows 7 или других ОС Win8, Linux и т.д.?