В системе для модерации оскорбительного пользовательского контента, как вы выбираете порог для автоматического удаления?
Я пишу приложение для форума и хочу автоматически модерировать оскорбительные сообщения, используя систему пометок, аналогичную системе Stackru, в которой пользователям предоставляется возможность сообщать о проблемных постах как попадающих в одну из трех категорий:
* Abusive speech
* Off topic
* Spam
Если конкретное сообщение получает определенное количество флагов, я хотел бы, чтобы система автоматически удаляла сообщение.
Как мне решить, каким должен быть этот порог?
2 ответа
Под "удалением" я бы предположил, что вы имеете в виду "деактивировать и сделать невидимым для обычных пользователей", чтобы вы все равно могли получить доступ к сообщению и принять решение о том, используется ли система маркировки надлежащим образом.
Я бы сказал, чтобы решить, каким должен быть порог, выбрав число от трех до пяти в зависимости от того, насколько велика и активна пользовательская база, и откорректируйте число в сторону увеличения или уменьшения в зависимости от того, как вы видите его на практике.
Я бы сделал это какой-то процент просмотров после определенного количества просмотров.
- Просмотров> 5
- Соотношение наступательных флагов и просмотров больше 1/5