Почему я получаю разные R2 при сравнении SEM и LM?

Я традиционно использую модели линейной регрессии, но хотел научиться использовать SEM, поскольку иногда у меня есть переменные-предикторы, которые предсказываются другими предикторами, и поэтому я попытался сравнить выходные данные lm() функция и sem() функция в пакете Lavaan.

В качестве примера: основная переменная, которую я хочу предсказать, это Y, используя переменные X1 и X2, но X2 предсказывается X3 и X4.

При использовании lm() функция для Y ~ X1 + X2 Я получаю R^2 0,38, а для X2 ~ X3 + X4Получаю 0,2. При одновременном вводе обоих этих уравнений в переменную модели, которую я ввожу в sem()функция, я получаю R^2 0,16 и 0,06 соответственно. Когда я удаляю X2 ~ X3 + X4 из модели SEM получаю 0,38, чего не понимаю

Меня не интересует код, но мне интересно, почему R^2 ниже для тех же двух моделей? Я попытался взглянуть на справочную виньетку Lavaan, но до сих пор не понимаю, почему.

0 ответов

Другие вопросы по тегам