Как интерпретировать результаты h2o.predict

После запуска h2o.deeplearning для проблемы бинарной классификации я запускаю h2o.predict и получаю следующие результаты

  predict        No       Yes
1      No 0.9784425 0.0215575
2     Yes 0.4667428 0.5332572
3     Yes 0.3955087 0.6044913
4     Yes 0.7962034 0.2037966
5     Yes 0.7413591 0.2586409
6     Yes 0.6800801 0.3199199

Я надеялся получить путаницу с двумя строками. Но это, кажется, совсем другое. Как мне интерпретировать эти результаты? Есть ли способ получить что-то вроде матрицы путаницы с фактическими и прогнозируемыми значениями и процентом ошибок?

1 ответ

Решение

Вы можете извлечь эту информацию из модели (например, если вы передаете validation_frame), или вы можете использовать h2o.performance() получить объект производительности H2OBinomialModel и извлечь матрицу путаницы, используя h2o.confusionMatrix(),

Пример:

fit <- h2o.deeplearning(x, y, training_frame = train, validation_frame = valid, ...)
h2o.confusionMatrix(fit, valid = TRUE)

Или же

fit <- h2o.deeplearning(x, y, train, ...)
perf <- h2o.performance(fit, test)
h2o.confusionMatrix(perf)
Другие вопросы по тегам