Используя EViews, используя робастную регрессию по методу наименьших квадратов, я не могу провести оценку MM?
Я разработал довольно простую модель эконометрики с многомерной регрессией. Сейчас я пытаюсь запустить Robust Regressions (EViews называет их Robust Least Square). Я легко могу провести M-оценку робастной регрессии. Но каждый раз, когда я выполняю оценку MM Робастной регрессии, я сталкиваюсь с одной и той же ошибкой: "Достигнуто максимальное количество единичных подвыборок". Я играл со спецификациями оценки MM, увеличивая / уменьшая количество итераций, уровень сходимости и т. Д. Неизменно я сталкиваюсь с одной и той же ошибкой.
На форуме EViews другой сотрудник столкнулся с точно такой же проблемой как для MM-оценки, так и для S-оценки. Модератор форума указал, что если модель содержит фиктивные переменные без такого большого количества наблюдений, такие оценки могут не достигать конвергенции и генерировать ошибку, как упомянуто выше. Моя модель имеет фиктивные переменные. И некоторые из них имеют не так много наблюдений (8 последовательных из данных временного ряда с 217 наблюдениями). Однако мне неясно, является ли это ограничением EViews или это действительно ограничение алгоритма. Я могу попытаться повторить оценку ММ в R. И посмотреть, возможно ли это.
Следуя вышесказанному, я сделал именно это. И запустил Robust Regression, используя R с пакетом MASS, используя функцию rlm(). Как и в EViews, у меня не было проблем с выполнением M-оценки. Точно так же я столкнулся с проблемой при попытке оценить ММ. Как и в EViews, я получил сообщение об ошибке, в котором говорилось, что регрессия / симуляция не достигли конвергенции после 20 итераций. Итак, я переоценил свою оценку ММ, сначала исключив все мои фиктивные переменные. Как и предполагалось, это сработало. Затем я добавлял только одну фиктивную переменную за раз и каждый раз переоценивал свою оценку ММ. Я сделал это, чтобы наблюдать, когда модель оценки ММ сломается. К моему удивлению, этого никогда не было. И теперь я в конечном итоге смогу выполнить свою оценку ММ со всеми фиктивными переменными. Я не знаю, почему я не мог запустить его сначала со всеми фиктивными переменными одновременно (возможно, я сделал ошибку в кодировании).
Это приводит меня к выводу, что R несколько более гибок, чем EViews в этом отношении. После более тщательного изучения я заметил, что оценка M EViews, которую я проводил, была бисквартальной (по сравнению с обычной Хьюбер). Это имеет большое значение. Когда я запускал в R M-оценку типа bisquare, я почти получил те же результаты, что и EViews. Были небольшие различия между ними. Этого можно ожидать, учитывая, что процесс решения является итеративным.
1 ответ
Как вы можете прочесть в моем комментарии, я проделал немало работы по этому вопросу. В конце концов, мне непонятно, почему метод EViews методически завершает работу при запуске робастной регрессии типа оценки MM с моделью, имеющей несколько фиктивных переменных. Я чувствую, что это не должно. Точно такая же модель с использованием той же методологии Robust Regression была решена в R с пакетом MASS и функцией rlm с использованием method = "MM".
В случае, если вы окажетесь в подобных обстоятельствах, я бы посоветовал вам попытаться вместо этого использовать тип MM Робастная регрессия в R. Я не знаю, какова относительная устойчивость этого процесса в SAS, SPSS, Python, STATA и других подобных программах. Надеюсь, что любой из них более устойчив, чем EViews в этом отношении.
Не исключено, что этот тип модели может фактически привести к сбою программного обеспечения (после многочисленных итераций алгоритм не сходится к решению). Но, если судить по моему опыту, любой показатель R имеет гораздо более высокий порог устойчивости, чем EViews по этому показателю.