Призраки и Расплавления Патчи против WWW
Около 20 дней назад Грег Розмаринович здесь, в SO, спросил
Какое влияние оказывает производительность на веб-сервисы в результате исправлений Meltdown?
Он, вероятно, знал, насколько я знаю, что этот вопрос не идеален для SO по многим причинам. Так как он спросил, я тоже собираюсь спросить.
Он заставил меня искать, как патчи M&S влияют на движки JS, распространенные компоновщики, такие как Webpack, и такие технологии, как WebGL. Видите ли, я больше заинтересован в клиентской части, чем в облаке. Поскольку существуют JS-эксплойты, связанные с M&S, а некоторые веб-приложения активно загружают CPU/GPU, вопрос кажется уместным. Но я не нашел какого-либо убедительного и всеобъемлющего набора критериев или исследований, направленных на эту область. Я пытался измерить время и мощность процессора во время сборки Angular5 с помощью Angular CLI 1.6 до и после обновления моих машин, а также производительность конечного приложения в производстве в вечнозеленых браузерах. Кажется, есть разница. Но я бы не поджег свою руку за то, что я сделал. Я не эксперт, чтобы сказать, и у меня нет соответствующих инструментов для выполнения каких-либо убедительных тестов (я даже не знаю, как это сделать ученым).
Кто-нибудь пытался исследовать эти проблемы? Имеет ли смысл их расследовать? Как правильно сопоставить процессы JS в браузере? Является ли jsperf.com надежным источником тестовых случаев, связанных с JS? Есть ли надежные данные по этому поводу или просто все продолжают говорить, насколько эти патчи плохи и насколько сильно они все замедляют?