Блог / Статьи

Полезная информация для вашего хостинга

Обнаружение наготы с помощью классификации изображений

В данной статье рассматривается проблема обнаружения обнажённых людей на фотографиях с использованием нейросетей и методов классификации изображений. Автор исследования, Пранит Бедапуди, стремится создать эффективную модель для цензуры и скрытия наготы на изображениях с целью родительского контроля и безопасности.

В первой части проекта автор собирает набор данных, содержащий как фотографии с обнажёнными людьми (NSFW), так и безопасные изображения (SFW). Набор данных собран из различных источников, включая Reddit, Facebook и другие ресурсы. После сбора данных, автор обрабатывает изображения, изменяет размер и удаляет дубликаты.

Затем автор приступает к обучению нейросети для классификации изображений на NSFW и SFW. Он использует архитектуру сети Xception и стохастический градиентный спуск (SGD) с моментом (momentum) для обучения модели. В результате обучения, модель достигает высокой точности 0.9347 по данным от другого разработчика GantMan.

Для оценки модели автор использует тестовые данные из различных источников. Он сравнивает результаты своей модели с другими проектами, такими как модель GantMan и open_nsfw от Yahoo. Все три модели показывают сходные оценки точности, но на разных изображениях они могут допускать ошибки.

0014

Обнаружение обнажённых контентов является важной задачей с точки зрения контроля контента в сети, особенно среди детей и подростков. Автор проекта демонстрирует, что применение нейросетей в этой области может быть эффективным и позволит создать более безопасное интернет-пространство. Однако, такие модели также вызывают вопросы о приватности и этичности использования, и их дальнейшее развитие должно учитывать эти аспекты.

Во второй части проекта рассматривается применение алгоритмов обнаружения объектов для цензурирования обнажённых частей тела на изображениях. Авторы используют набор данных, содержащий размеченные изображения с обнажёнными телами, такими как ягодицы или грудь, а также безопасные изображения. Набор данных собран с участием Jae Jin и его команды.

Из-за дисбаланса классов в данных, авторы решают применить алгоритм обнаружения объектов RetinaNet от FAIR. Этот метод использует измененную кросс-энтропийную потерю Focal Loss для более эффективного обнаружения объектов. Архитектурой бэкэнда для RetinaNet служит resnet-101.

После обучения RetinaNet для обнаружения обнажённых частей тела, авторы тестируют его на тех же наборах данных, что и предыдущую модель (классификатор). Если на изображении обнаружена любая из меток, указывающих на обнажённые части тела, изображение помечается как «ню», в противном случае — как «безопасное».

Детектор NudeNet показывает лучшие результаты, чем ранее использованные модели, такие как Open NSFW и nsfw_model, а также предыдущая классификационная модель NudeNet. Основной особенностью NudeNet является возможность автоматически закрывать нежелательные части обнажённых изображений. Это позволяет использовать модель для цензурирования обнажённых фигур на любых изображениях, в том числе и анимационного контента, делая её эффективным инструментом для родительского контроля.

Проект NudeNet доступен на GitHub, и предварительно обученные модели можно найти в папке /NudeNet-Models. Для установки и использования нейросети, можно выполнить соответствующий фрагмент кода, представленный в статье.