Вычислите точность и вызов по мультиклассовым наборам данных CSV.
Мне нужно рассчитать точность и вспомнить из CSV, которые содержат мультиклассовую классификацию.
Чтобы быть более конкретным, мой CSV имеет следующую структуру:
real_class1, classified_class1
real_class2, classified_class3
real_class3, classified_class4
real_class4, classified_class2
Всего есть шесть классифицированных классов.
В бинарном примере у меня нет проблем, чтобы понять, как вычислять Истинный Позитив, Ложный Позитив, Истинный Отрицательный и Ложный Отрицательный. Но с мультиклассом я не знаю, как поступить.
Может кто-нибудь показать мне какой-нибудь пример? Возможно в питоне?
1 ответ
Решение
Как предлагается в комментарии, вы должны создать матрицу путаницы и выполнить следующие шаги:
(Я предполагаю, что вы используете искру, чтобы иметь лучшую производительность при обработке машинного обучения)
from __future__ import division
import pandas as pd
import numpy as np
import pickle
from pyspark import SparkContext, SparkConf
from pyspark.sql import SQLContext, functions as fn
from sklearn.metrics import confusion_matrix
def getFirstColumn(line):
parts = line.split(',')
return parts[0]
def getSecondColumn(line):
parts = line.split(',')
return parts[1]
# Initialization
conf= SparkConf()
conf.setAppName("ConfusionMatrixPrecisionRecall")
sc = SparkContext(conf= conf) # SparkContext
sqlContext = SQLContext(sc) # SqlContext
data = sc.textFile('YOUR_FILE_PATH') # Load dataset
y_true = data.map(getFirstColumn).collect() # Split from line the class
y_pred = data.map(getSecondColumn).collect() # Split from line the tags
confusion_matrix = confusion_matrix(y_true, y_pred)
print("Confusion matrix:\n%s" % confusion_matrix)
# The True Positives are simply the diagonal elements
TP = np.diag(confusion_matrix)
print("\nTP:\n%s" % TP)
# The False Positives are the sum of the respective column, minus the diagonal element (i.e. the TP element
FP = np.sum(confusion_matrix, axis=0) - TP
print("\nFP:\n%s" % FP)
# The False Negatives are the sum of the respective row, minus the diagonal (i.e. TP) element:
FN = np.sum(confusion_matrix, axis=1) - TP
print("\nFN:\n%s" % FN)
num_classes = INTEGER #static kwnow a priori, put your number of classes
TN = []
for i in range(num_classes):
temp = np.delete(confusion_matrix, i, 0) # delete ith row
temp = np.delete(temp, i, 1) # delete ith column
TN.append(sum(sum(temp)))
print("\nTN:\n%s" % TN)
precision = TP/(TP+FP)
recall = TP/(TP+FN)
print("\nPrecision:\n%s" % precision)
print("\nRecall:\n%s" % recall)