Подразделение Facebook Research опубликовало исследование о технологии, которая способна обманывать системы распознавания человеческих лиц на видео. Ее работа вносит в видеострим небольшие искажения: на нем все еще можно узнать героя, но система автоматического распознавания не сможет его опознать.
«Мы предлагаем метод деидентификации, который позволяет полностью автоматическую модификацию видео. Цель: максимально помешать идентификации, в то же время сохранив восприятие (позу, освещение, выражение лица)», — говорится в описании исследования. Если вкратце, это работает так, как показано на этом видео.
Этим занимается разработанная в компании нейросеть, которую не нужно переобучать под конкретные видео или конкретных людей. При обработке видео в реальном времени она создает природно выглядящие измененные видео с небольшой задержкой.
Архитекрута сети выглядит так (можно кликнуть, чтобы увеличить):
Facebook не собирается пока использовать эту технологию в своих коммерческих продуктах, по данным VentureBeat. Однако исследование может повлиять на будущие инструменты, которые сеть будет запускать для защиты приватности и борьбы с дипфейками.
Источник: ain.ua
На исследование основных показателей в Яндекс Метрике достаточно одного часа. В статье мы покажем, как находить эти показатели и объясним,…
Рассказываем, какие интересные и полезные исследования вышли в мае 2022 года. Какие каналы для общения с клиентами выбирает бизнес —…
В мае Яндекс увеличил количество мест в товарной галерее и добавил два новых формата Большого баннера на главной. Директ…
Я пришел в digital 11 лет назад, когда учился в аспирантуре института биоорганической химии им. академиков М. М. Шемякина и Ю. А. Овчинникова. Тогда я просто…
Как сформулировать CTA, решает общий контекст коммуникации с пользователем. Какая формулировка сработает лучше, определяет тестирование. Но что…
Магазины в Telegram уже были давно. Как они выглядят и насколько удобны — другой вопрос. Некоторые из них — просто…