Как предотвратить загрузку нежелательного контента в AWS с Rails?

У меня есть приложение Rails 5, которое позволяет пользователям загружать изображения в свои профили с помощью нового ActiveStorage с процессом AWS S3 Storage.

Я искал способ обнаружить недопустимый контент / явные изображения в загрузках, чтобы я мог запретить пользователю отображать их в своих учетных записях, но я не уверен, как мне это сделать.

Я не хочу модерировать загрузку контента. Я знаю, что есть способы разрешить пользователям "помечать как неприемлемые". Я бы предпочел вообще не разрешать загрузку явного контента.

Я полагаю, что лучшее решение было бы для приложения Rails обнаружить явный контент и вставить изображение-заполнитель вместо неподходящего изображения пользователя.

Одной из идей было AWS Rekognition. Кто-нибудь успешно реализовал решение этой проблемы?

1 ответ

You can implement AWS Lambda function in Ruby which will be triggered every time your image uploaded to S3. This Lambda function then can call AWS Rekognition. You can find about how to use AWS Rekognition to detect unsafe images here: https://docs.aws.amazon.com/rekognition/latest/dg/procedure-moderate-images.html.

I used Rekognition before, but for a different use case. You can find out more here: https://github.com/johannesridho/aident

Почему это должно быть так сложно? Большинство веб-сайтов просто позволяют вам помечать пользовательский контент как плохой, и тогда администратор может просмотреть его для удаления. Это может занять совсем немного времени, если вы обнаружите, что это неадекватно после того, как вы это сделаете, вы можете попробовать что-то другое, но я бы не стал прыгать прямо к самому сложному и дорогостоящему ответу на проблему.

Другие вопросы по тегам