Применение lm() и Foregnet() к нескольким столбцам во фрейме данных
У меня есть пример набора данных ниже.
train<-data.frame(x1 = c(4,5,6,4,3,5), x2 = c(4,2,4,0,5,4), x3 = c(1,1,1,0,0,1),
x4 = c(1,0,1,1,0,0), x5 = c(0,0,0,1,1,1))
Предположим, я хочу создать отдельные модели для колонки x3
, x4
, x5
на основе столбца x1
а также x2
, Например
lm1 <- lm(x3 ~ x1 + x2)
lm2 <- lm(x4 ~ x1 + x2)
lm3 <- lm(x5 ~ x1 + x2)
Затем я хочу взять эти модели и применить их к тестовому набору, используя предикат, а затем создать матрицу, в которой каждый результат модели будет представлен в виде столбца.
test <- data.frame(x1 = c(4,3,2,1,5,6), x2 = c(4,2,1,6,8,5))
p1 <- predict(lm1, newdata = test)
p2 <- predict(lm2, newdata = test)
p3 <- predict(lm3, newdata = test)
final <- cbind(p1, p2, p3)
Это упрощенная версия, где вы можете сделать это шаг за шагом, реальные данные слишком велики. Есть ли способ создать функцию или использовать оператор for, чтобы объединить это в один или два шага?
1 ответ
У меня была склонность закрыть ваш вопрос как дубликат для Подгонки линейной модели с несколькими LHS, но, к сожалению, проблема прогнозирования там не рассматривается. С другой стороны, Прогнозирование объекта линейной модели mlm изlm()
говорит о предсказании, но немного далек от вашей ситуации, так как вы работаете с интерфейсом формулы вместо интерфейса матрицы.
Мне не удалось найти идеальный дубликат цели в теге "mlm". Поэтому я считаю хорошей идеей добавить еще один ответ для этого тега. Как я сказал в связанных вопросах, predict.mlm
не поддерживается se.fit
и на данный момент это также отсутствует в теге "mlm". Так что я бы воспользовался этой возможностью, чтобы заполнить такой пробел.
Вот функция для получения стандартной ошибки прогноза:
f <- function (mlmObject, newdata) {
## model formula
form <- formula(mlmObject)
## drop response (LHS)
form[[2]] <- NULL
## prediction matrix
X <- model.matrix(form, newdata)
Q <- forwardsolve(t(qr.R(mlmObject$qr)), t(X))
## unscaled prediction standard error
unscaled.se <- sqrt(colSums(Q ^ 2))
## residual standard error
sigma <- sqrt(colSums(residuals(mlmObject) ^ 2) / mlmObject$df.residual)
## scaled prediction standard error
tcrossprod(unscaled.se, sigma)
}
Для вашего данного примера вы можете сделать
## fit an `mlm`
fit <- lm(cbind(x3, x4, x5) ~ x1 + x2, data = train)
## prediction (mean only)
pred <- predict(fit, newdata = test)
# x3 x4 x5
#1 0.555956679 0.38628159 0.60649819
#2 0.003610108 0.47653430 0.95848375
#3 -0.458483755 0.48014440 1.27256318
#4 -0.379061372 -0.03610108 1.35920578
#5 1.288808664 0.12274368 0.17870036
#6 1.389891697 0.46570397 0.01624549
## prediction error
pred.se <- f(fit, newdata = test)
# [,1] [,2] [,3]
#[1,] 0.1974039 0.3321300 0.2976205
#[2,] 0.3254108 0.5475000 0.4906129
#[3,] 0.5071956 0.8533510 0.7646849
#[4,] 0.6583707 1.1077014 0.9926075
#[5,] 0.5049637 0.8495959 0.7613200
#[6,] 0.3552794 0.5977537 0.5356451
Мы можем проверить, что f
верно:
## `lm1`, `lm2` and `lm3` are defined in your question
predict(lm1, test, se.fit = TRUE)$se.fit
# 1 2 3 4 5 6
#0.1974039 0.3254108 0.5071956 0.6583707 0.5049637 0.3552794
predict(lm2, test, se.fit = TRUE)$se.fit
# 1 2 3 4 5 6
#0.3321300 0.5475000 0.8533510 1.1077014 0.8495959 0.5977537
predict(lm3, test, se.fit = TRUE)$se.fit
# 1 2 3 4 5 6
#0.2976205 0.4906129 0.7646849 0.9926075 0.7613200 0.5356451