Почему существовала ошибка y2k?
Объяснение, которое я получил для этого, было то, что для программистов было обычной практикой просто представлять год с двумя цифрами. Но зачем кому-то это делать? Во всяком случае, я думаю, что потребуется больше усилий, чтобы откатить программу до 1900 года вместо того, чтобы перейти к 2000 году.
3 ответа
Премиум места для хранения + отсутствие предвидения = ошибка 2000 года.
Сохранение байтов было очень важно во многих старых системах. Кроме того, распространенная ошибка в разработке программного обеспечения - "никто не собирается использовать это через X лет". Так почему бы не сохранить эти байты сейчас? 10/20/30 лет спустя это ОБЯЗАТЕЛЬНО будет отменено для совершенно новой системы.
Процитирую Лекса Лютора - "Неправильно".
Зачем? Их вопрос был скорее всего: "Почему бы и нет?" Если это спасло несколько битов в мире, где использование памяти было значительно более ограничено, то они решили, что могут также сэкономить это пространство.
Очевидно, что "почему нет" было потому, что "ваше программное обеспечение могло бы использоваться в течение значительного количества времени". У некоторых программистов было предвидение, чтобы планировать заранее, но не у всех.
История гласит, что это было в то время, когда 1 килобайт оперативной памяти стоил более 1000 долларов. Пропуск лишних цифр означал действительно экономию денег.