Различные результаты по классификаторам SMO, NaiveBayes и BayesNet в Weka
Я пытаюсь использовать различные классификаторы Weka в моем наборе данных. У меня есть небольшой набор данных, и я классифицирую свои данные по пяти классам. Моя проблема в том, что когда я применяю перекрестную проверку или классификацию в процентах с разбивкой по различным классификаторам, я получаю очень разные результаты.
Например, когда я использую NaiveBayse
или же BayseNet
классификаторы, у меня F-оценка около 40 для всех классов, но с использованием SMO
Я получаю F-оценку 20. Худший результат получается, когда я использую LibLinear
классификатор, который дает мне F-баллов около 15.
Может быть, я должен упомянуть, что с LibLinear
классификатор не принимает номиналы, я присваиваю код каждому из возможных номинальных значений и использую их как Numeric
значения в моем наборе данных.
Кто-нибудь может сказать мне, почему я получаю такие разные результаты? Я ожидал, что у всех классификаторов будут примерно одинаковые результаты.
Кроме того, когда я использую LibLinear
в моем тестовом наборе все данные классифицированы по одному из классов, а в остальных четырех классах нет экземпляров.
Заранее спасибо,
1 ответ
Почему вы ожидаете подобных результатов? Особенно для небольших наборов данных, я думаю, разные методы могут легко привести к разным предсказаниям. Также линейная модель имеет порог допуска, который может привести к досрочному прекращению до сходимости. Это то, что вы можете играть в LibLINEAR или SMO, например.