Подход, используемый для оценки оставшегося времени загрузки в приложениях (таких как браузеры)

Мне просто интересно, почему первоначальная оценка оставшегося времени каждой загрузки в большинстве (если не во всех) приложениях основана только на текущей скорости загрузки конкретной загрузки и не учитывает другие параллельные загрузки.

Например, если у нас есть 2 одновременных загрузки, которые начались одновременно (t=0), загрузите A=10 МБ и загрузите B=5 МБ и общую доступную полосу пропускания в 1 МБ / с, поровну распределенную между двумя загрузками (то есть 0,5 МБ) / с на загрузку, когда две загрузки выполняются одновременно), в соответствии с обычно используемым подходом, предполагаемое оставшееся время загрузки для каждой загрузки в момент времени t = 0 будет:

  • Загрузка A: будет завершена через 20 секунд

  • Загрузка B: будет завершена через 10 секунд

Однако если для первоначальной оценки оставшегося времени загрузки A мы учли, что загрузка B завершится через 10 с и, таким образом, выделенная пропускная способность загрузки A будет увеличена с 0,5 МБ / с до 1 МБ / с, то следующее более точная начальная оценка может быть сделана в момент времени t=0:

  • Загрузка A: будет завершена через 15 секунд (в момент времени t=10 с будет загружено 5 МБ загрузки A, а остальные 5 МБ загрузки A будут загружены со скоростью 1 МБ / с)

  • Загрузка B: будет завершена через 10 секунд

Таким образом, второй подход может дать нам более точную начальную оценку в момент времени t=0.

Кто-нибудь знает, почему этот подход не используется?

0 ответов

Другие вопросы по тегам