Способ сделать перекрестную проверку
Допустим, у меня есть fold1, fold2, fold3.
Я тренировал Fold1, Fold2, Fold3 с моделью A.
A) модель A (сложить 1) -> модель A (сложить 2) -> модель A (сложить 3)
B) модель A (сгиб1) -> модель с сохраненным весом A (сгиб1) -> модель A (сгиб2) -> модель с сохраненным весом A (сгиб2) -> модель A (сгиб3) -> модель с сохраненным весом A (сгиб3) -> вес ансамбля 3
какой путь является правильным способом сделать перекрестную проверку k-кратным и почему?
1 ответ
Это зависит от вашей конечной цели. K-Fold CV используется для поиска гиперпараметров модели.
После этого этапа вы можете изменить свой проверочный набор данных и обучить его модели.
Если вы хотите использовать как можно больше данных (выполняя прогнозы), это может быть хорошей идеей для обучения N
модели на N
разные складки и ансамбль их предсказания. Этот похож на boostrap, в целом, ваш ансамбль видел все данные, но он не переписывался. Этот подход N
в то же время требует больше вычислительных ресурсов, так что все сводится к вашим целям.
Наконец, вы должны получить лучшие результаты при подгонке разных моделей к вашим сгибам вместо одной, но для этого потребуется отдельное пространство для гиперпараметров для каждого алгоритма.