Регрессия от термина ошибки к зависимой переменной (lavaan)
Я хочу проверить модель структурного уравнения (SEM). Есть 3 индикатора, I1
в I3
, которые составляют скрытую конструкцию LC
, Эта конструкция должна объяснить зависимую переменную DV
,
Теперь предположим, что уникальная дисперсия показателей внесет дополнительное объяснение DV
, Что-то вроде этого:
IV1 ↖
IV2 ← LC → DV
IV3 ↙ ↑
↑ │
e3 ───────┘
В lavaan
условия ошибки / остатки IV3
, e3
, как правило, не написано:
model = '
# latent variables
LV =~ IV1 + IV2 + IV3
# regression
DV ~ LV
'
Далее, остаток I3
должен быть разделен на компонент, который способствует объяснению DV
и один остаток от остатка.
Я не хочу объяснять DV напрямую IV3
, потому что моя цель показать, сколько уникального объяснения IV3
может способствовать DV
, Я хочу максимизировать путь IV3
→ LC
→ DV
, а затем положить остаток в I3
→ DV
,
Вопрос:
Как мне записать это в SEM?
Бонусный вопрос:
Имеет ли смысл с точки зрения SEM, что каждый из IV
с такой путь к DV
?
Примечание:
То, что я уже сделал, было вычислить это традиционно, используя серию вычислений. Я:
- Вычислил подвеску
LV
, среднее изIV1
вIV3
- Сделал 3 регрессии
IVx
→LC
- Делал множественную регрессию
IVx
Остатки доDV
,
Удаление общей дисперсии, по-видимому, делает один из остатков излишним, поэтому регрессионная модель не может оценить каждый из остатков, но пропускает последний.
1 ответ
На ваш вопрос:
Как мне записать это в модели SEM? Это вообще возможно?
Ответ, я думаю, да - по крайней мере, если я вас правильно понимаю.
Если то, что вы хотите сделать, это предсказать результат, используя скрытую переменную и уникальную дисперсию одного из ее индикаторов, это может быть легко достигнуто в lavaan. См. Пример кода ниже: первый пример включает в себя прогнозирование результата только по одной скрытой переменной, тогда как второй пример прогнозирует тот же результат по той же скрытой переменной, а также по уникальной дисперсии одного из индикаторов этой скрытой переменной:
#Call lavaan and use HolzingerSwineford1939 data set
library(lavaan)
dat = HolzingerSwineford1939
#Model 1: x4 predicted by lv (visual)
model1 = '
visual =~ x1 + x2 + x3
x4 ~ visual
'
#Fit model 1 and get fit measures and r-squared estimates
fit1 <- cfa(model1, data = dat, std.lv = T)
summary(fit1, fit.measures = TRUE, rsquare=T)
#Model 2: x4 predicted by lv (visual) and residual of x3
model2 = '
visual =~ x1 + x2 + x3
x4 ~ visual + x3
'
#Fit model 2 and get fit measures and r-squared estimates
fit2 <- cfa(model2, data = dat, std.lv = T)
summary(fit2, fit.measures = TRUE,rsquare=T)
Обратите внимание, что R-квадрат для x4 (гипотетический результат) намного больше, когда предсказывается как скрытой переменной, на которую загружается x3, так и уникальной дисперсией x3.
Что касается вашего второго вопроса:
Бонусный вопрос: имеет ли это смысл? И даже больше: имеет ли смысл с точки зрения СЭМ (теоретически так и есть), что каждая из независимых переменных имеет такой путь к DV?
В некоторых случаях может иметь смысл указывать такие пути, но я бы не стал этого делать в отсутствие сильной теории. Например, возможно, вы думаете, что переменная является слабым, но теоретически важным показателем большей скрытой переменной - например, опыт "благоговения" означает "положительный эффект". Но, возможно, ваше исследование не заинтересовано в скрытой переменной, как таковой - вас интересуют уникальные эффекты страха для предсказания чего-то сверх и вне его проявления как формы положительного аффекта. Следовательно, вы можете указать путь регрессии от уникальной дисперсии благоговения к результату, в дополнение к пути от положительного влияния на результат.
Но могли бы / должны ли вы сделать это для каждой из ваших переменных? Ну, нет, ты не мог. Как вы можете видеть, этот конкретный случай имеет только одну оставшуюся степень свободы, поэтому модель находится на грани недостаточной идентификации (и будет, если вы укажете два оставшихся возможных пути от уникальных отклонений x1 и x2 до результат х4).
Более того, я думаю, что многие скептически относятся к вашей мотивации попыток указать все эти пути. Моделирование пути от скрытой переменной к результату позволяет вам говорить о более широком процессе; Что бы вы узнали, моделируя каждый путь от уникальной дисперсии до результата? Конечно, вы могли бы сказать: "Ну что же, оставшиеся" вещи "в этой переменной предсказывают х4!"... но что вы можете сказать о природе этого "материала"- это просто изолированная манифестная дисперсия. Вместо этого, я думаю, вы были бы на более сильной теоретической основе, чтобы рассмотреть дополнительные общие факторы, которые могут лежать в основе оставшейся дисперсии ваших переменных (например, факторы метода); это добавит больше концептуальной специфики в ваш анализ.