Различные результаты по классификаторам SMO, NaiveBayes и BayesNet в Weka

Я пытаюсь использовать различные классификаторы Weka в моем наборе данных. У меня есть небольшой набор данных, и я классифицирую свои данные по пяти классам. Моя проблема в том, что когда я применяю перекрестную проверку или классификацию в процентах с разбивкой по различным классификаторам, я получаю очень разные результаты.

Например, когда я использую NaiveBayse или же BayseNet классификаторы, у меня F-оценка около 40 для всех классов, но с использованием SMO Я получаю F-оценку 20. Худший результат получается, когда я использую LibLinear классификатор, который дает мне F-баллов около 15.

Может быть, я должен упомянуть, что с LibLinear классификатор не принимает номиналы, я присваиваю код каждому из возможных номинальных значений и использую их как Numeric значения в моем наборе данных.

Кто-нибудь может сказать мне, почему я получаю такие разные результаты? Я ожидал, что у всех классификаторов будут примерно одинаковые результаты.

Кроме того, когда я использую LibLinear в моем тестовом наборе все данные классифицированы по одному из классов, а в остальных четырех классах нет экземпляров.

Заранее спасибо,

1 ответ

Почему вы ожидаете подобных результатов? Особенно для небольших наборов данных, я думаю, разные методы могут легко привести к разным предсказаниям. Также линейная модель имеет порог допуска, который может привести к досрочному прекращению до сходимости. Это то, что вы можете играть в LibLINEAR или SMO, например.

Другие вопросы по тегам