Сервис ACMS Censor самостоятельно находит и скрывает нежелательный контент. Решение поможет авторам и медиакомпаниям соблюдать правила платформ и законы без ручного редактирования. Бесплатная версия станет доступна уже 19 мая.
Студенты Института интеллектуальной робототехники Новосибирского государственного университета, участники Стартап-студии НГУ, разработали систему ACMS Censor, автоматически скрывающую нежелательный контент в видео и аудио. Сервис предназначен как для обычных пользователей, так и для медиакомпаний, онлайн-кинотеатров и видеохостингов. Система самостоятельно находит сцены с курением, нецензурную лексику, экстремистские материалы и контент 18+, затем скрывает их мозаикой или «запикивает» без участия человека.
Разработчики подчеркивают, что их решение помогает публиковать безопасный контент, соответствующий правилам платформ и законодательства. Перед стартом проекта команда изучила рынок и не нашла аналогов с подобным функционалом.
«На текущий момент аналогичных решений на рынке мы не нашли. Большинство существующих инструментов ограничены фотоформатом, требуют ручной модерации или просто уведомляют о наличии нарушающего контента. Наша система идет дальше — она скрывает нежелательные элементы автоматически, что упрощает публикацию и повышает безопасность контента».
Илья Трушкин, представитель команды
Сервис особенно полезен для медиаплощадок, ответственных за размещаемый контент. Он позволяет автоматически адаптировать материалы под требования закона. Сейчас команда тестирует интеграцию и готовит запуск. Уже 19 мая появится бесплатная бета-версия, а в августе выйдут корпоративные решения для локального размещения на серверах компаний, что обеспечит дополнительную безопасность.
Разработчики открыты к партнерству и ищут инвесторов для масштабирования проекта.