Как компьютер показывает нам результат 0,7, когда мы добавляем 0,1 и 0,6 в калькуляторе?
1) Как я знаю, компьютер преобразует десятичные числа в двоичные и выполняет транзакции. Например, когда мы добавляем десятичные числа, такие как "12" и "37" в компьютерный калькулятор. Это правильно?
2) Если первый мой вопрос верен, как двоичное выражение внизу интерпретируется процессором с одинарной точностью? (Как нам показан результат? Как компьютер преобразует это выражение, которое было преобразовано в числа с плавающей запятой, в десятичное снова? И Как мы можем преобразовать это выражение, которое было преобразовано в числа с плавающей запятой, в десятичное снова?)
0 ll 01111110 ll 01100110011001100110100
Я имею в виду, как мы узнали, что результат равен 0,70000005 с одинарной точностью в этом выражении: арифметика с плавающей точкой
3) Как я знаю, компьютер выполняет те же транзакции, что и в видео, которым я поделился, когда мы добавили десятичное число 0,1 и 0,6 в калькуляторе компьютера. Однако калькулятор скрывает от нас двоичный раздел.0000005 (как в результате с видео) и в результате показывает десятичное число "0,7", но как скрыть или удалить этот раздел? Почему это не показало нам число, как 0,71, округлив,
0 ll 01111110 ll 01100110011001100110100 число с плавающей запятой?