Как интерпретировать результаты h2o.predict
После запуска h2o.deeplearning для проблемы бинарной классификации я запускаю h2o.predict и получаю следующие результаты
predict No Yes
1 No 0.9784425 0.0215575
2 Yes 0.4667428 0.5332572
3 Yes 0.3955087 0.6044913
4 Yes 0.7962034 0.2037966
5 Yes 0.7413591 0.2586409
6 Yes 0.6800801 0.3199199
Я надеялся получить путаницу с двумя строками. Но это, кажется, совсем другое. Как мне интерпретировать эти результаты? Есть ли способ получить что-то вроде матрицы путаницы с фактическими и прогнозируемыми значениями и процентом ошибок?
1 ответ
Решение
Вы можете извлечь эту информацию из модели (например, если вы передаете validation_frame
), или вы можете использовать h2o.performance()
получить объект производительности H2OBinomialModel и извлечь матрицу путаницы, используя h2o.confusionMatrix()
,
Пример:
fit <- h2o.deeplearning(x, y, training_frame = train, validation_frame = valid, ...)
h2o.confusionMatrix(fit, valid = TRUE)
Или же
fit <- h2o.deeplearning(x, y, train, ...)
perf <- h2o.performance(fit, test)
h2o.confusionMatrix(perf)