Почему я получаю разные R2 при сравнении SEM и LM?
Я традиционно использую модели линейной регрессии, но хотел научиться использовать SEM, поскольку иногда у меня есть переменные-предикторы, которые предсказываются другими предикторами, и поэтому я попытался сравнить выходные данные
lm()
функция и
sem()
функция в пакете Lavaan.
В качестве примера: основная переменная, которую я хочу предсказать, это
Y
, используя переменные
X1
и
X2
, но
X2
предсказывается
X3
и
X4
.
При использовании
lm()
функция для
Y ~ X1 + X2
Я получаю R^2 0,38, а для
X2 ~ X3 + X4
Получаю 0,2. При одновременном вводе обоих этих уравнений в переменную модели, которую я ввожу в
sem()
функция, я получаю R^2 0,16 и 0,06 соответственно. Когда я удаляю
X2 ~ X3 + X4
из модели SEM получаю 0,38, чего не понимаю
Меня не интересует код, но мне интересно, почему R^2 ниже для тех же двух моделей? Я попытался взглянуть на справочную виньетку Lavaan, но до сих пор не понимаю, почему.