Способ сделать перекрестную проверку

Допустим, у меня есть fold1, fold2, fold3.

Я тренировал Fold1, Fold2, Fold3 с моделью A.

A) модель A (сложить 1) -> модель A (сложить 2) -> модель A (сложить 3)

B) модель A (сгиб1) -> модель с сохраненным весом A (сгиб1) -> модель A (сгиб2) -> модель с сохраненным весом A (сгиб2) -> модель A (сгиб3) -> модель с сохраненным весом A (сгиб3) -> вес ансамбля 3

какой путь является правильным способом сделать перекрестную проверку k-кратным и почему?

1 ответ

Это зависит от вашей конечной цели. K-Fold CV используется для поиска гиперпараметров модели.

После этого этапа вы можете изменить свой проверочный набор данных и обучить его модели.

Если вы хотите использовать как можно больше данных (выполняя прогнозы), это может быть хорошей идеей для обучения N модели на N разные складки и ансамбль их предсказания. Этот похож на boostrap, в целом, ваш ансамбль видел все данные, но он не переписывался. Этот подход N в то же время требует больше вычислительных ресурсов, так что все сводится к вашим целям.

Наконец, вы должны получить лучшие результаты при подгонке разных моделей к вашим сгибам вместо одной, но для этого потребуется отдельное пространство для гиперпараметров для каждого алгоритма.

Другие вопросы по тегам