DBL_MAX теряет значительную часть своей точности после повторного анализа из строки

Я запускаю этот код на моем iPhone:

double d = DBL_MAX;
NSString *s = [NSString stringWithFormat:@"%.0f", d];
double dp = atof([s cStringUsingEncoding:[NSString defaultCStringEncoding]]);
NSString *pe = d == dp ? @"YES" : @"NO";

double one = 1;
double dpd = dp / one;
NSString *de = d == dpd ? @"YES" : @"NO";

NSLog(@"### Parsed are equal: %@, divided are equal: %@", pe, de);
NSLog(@"D   : %.0f", d);
NSLog(@"DP  : %.0f", dp);
NSLog(@"DPD : %.0f", dpd);

... и получить этот вывод:

### Parsed are equal: NO, divided are equal: NO
D   : 17976931348623157081452742373170435679807056752584499659891747680315726078002853876058955863276687817154045895351438246423432132688946418276846754670353751698604991057655128207624549009038932894407586850845513394230458323690322294816580855933212334827479
DP  : 17976931348623155723920577891946972866121062246621938439403251722449088432276750723756897307653964877256701669823356283705419341284625019355047863102662518251134787976961389628366367996124520722972986881016593281354069269901878996004952428787693676134400
DPD : 17976931348623155723920577891946972866121062246621938439403251722449088432276750723756897307653964877256701669823356283705419341284625019355047863102662518251134787976961389628366367996124520722972986881016593281354069269901878996004952428787693676134400

Почему последовательность printf()/atof() теряет точность (полагаю stringWithFormat делает printf внутри)? Это происходит не только для DBL_MAX, но и для каждого значительно большего числа (т.е. для 10000 работает как положено, для DBL_MAX / 2 Это не). Есть ли способ избежать этого?

2 ответа

Решение

Не все десятичные дроби могут быть представлены в двоичном виде. Например, 0.2(dec) = 0.001100110011...(bin). Поэтому, когда число преобразуется из десятичной строки, оно иногда усекается (или округляется).

При преобразовании из двоичного в десятичное, даже если это всегда возможно, результат иногда длиннее, чем n*log_10(2), где n - количество двоичных цифр. Например, 0,001(bin) = 0,125(dec), но 3*log_10(2)=0,903... Поэтому, когда число преобразуется из двоичной в цифровую строку, оно иногда также усекается.

Вот почему вы получаете результат, который немного отличается.

Вот пример. Предположим, ваша мантисса состоит из 6 цифр. Давайте преобразуем число 0.001111(bin) в десятичное. Точный результат равен 0,234375, но это число округляется до 0,23, потому что вам нужно только 6*log_10(2)=1,8061 цифр для представления любого 6-значного двоичного файла. В этом случае 1.8061 даже округляется до 2.

Теперь давайте посмотрим, что мы получим, если мы конвертируем наши 0.23 обратно в двоичный файл. Это 0,0011101011... Это должно быть округлено, и результат может быть 0,001110 или 0,001111 в зависимости от способа округления.

"Значительный", хорошо двойной, имеет 53 бита точности, то есть между 15 и 16 десятичными цифрами, у вас есть разница в 17-й (но первая цифра - 1).

Мое предположение (я не проверял это) состоит в том, что разница только в младшем значащем бите, так что это проблема округления либо в выходных данных, либо во входных подпрограммах. Я не знаю, запрашивает ли цель C правильный результат в этом случае (правильные результаты требуют использования многоточной арифметики), я знаю, что реализация C варьируется.

Другие вопросы по тегам