Что означает "уровень точности" в этом методе WMI?
У меня есть приложение, которое должно запускать метод GetConversionStatus класса Win32_EncryptableVolume в WMI для обнаружения различной информации о состоянии Bitlocker на текущем компьютере.
Страница MSDN для этого метода определяет параметр с именем "PrecisionFactor". Они описывают это как:
Значение от 0 до 4, которое определяет уровень точности
Для чего это? Кто-нибудь знает, что это на самом деле влияет или какая разница на выходе? Есть ли английское описание того, что этот параметр на самом деле делает?
2 ответа
Проценты всегда возвращаются как UInt32. Таким образом, чтобы дать пользователям гибкость десятичных цифр, PrecisionFactor
берется в качестве ввода.
На основе коэффициента точности будут возвращены проценты с точностью до этих десятичных цифр, но в виде UInt32. Следующий скрипт объясняет поведение:
PS C:\> 0..4 | % { $encVol.GetConversionStatus($_).EncryptionPercentage } | ft
Для моего полностью зашифрованного тома выходы были
100
1000
10000
100000
1000000
Я бы порекомендовал пинговать их через форум MSDN напрямую. Я копался в старых ссылках, и похоже, что они куда-то уронили документацию.