Наверх
13 декабря 2019
USD EUR
Погода

Дипфейк-видео станут неразрешимой проблемой кибербезопасности в мире

©Alexandra ROBINSON / AFP / EastNews

Поддельные видео в интернете, смоделированные искусственным интеллектом, — дипфейки — развиваются в разы быстрее, чем алгоритмы, создаваемые для их определения. В результате контролировать распространение дипфейков техническими методами сегодня невозможно, а в будущем станет еще сложнее, считают специалисты.

По словам профессора Университета Южной Калифорнии Хао Ли, разрабатывающего алгоритмы по определению дипфейков, пока ни один инструмент не может со стопроцентной точностью отличить дипфейк от настоящего видеоролика. Лучший результат, которого удалось добиться, — идентификация подделки с вероятностью в 97%. Остается лакуна в 3%, следовательно, минимум 500 из 15 тысяч распространяемых в интернете дипфейк-роликов не могут быть распознаны. При этом их качество продолжает расти.

«На рынке нет технологий, призванных выявлять и распознавать подобные подделки, — сообщил «Профилю» источник на заводе по производству микрофонов для биометрии «Октава» (входит в «Ростех»). — Если сейчас профессиональный звукорежиссер еще может выявить подделку голоса, обратив внимание на рваный ритм, неестественные интонации в конце слов, то в течение года технология разовьется настолько, что распознать ее без спецсредств будет невозможно».

В конечной перспективе противостоять дипфейкам, в основе которых лежат нейросети, смогут лишь другие нейросети. Но поскольку и тем и другим для обучения требуется большое количество данных, дипфейки на этом поле заведомо побеждают. Им доступны миллиарды видеозаписей, тогда как программы распознавания могут работать лишь с теми 15 тысячами фальшивок, которые сегодня загружены в сеть. В этих условиях отыграть у «поддельной индустрии» стартовую фору вряд ли удастся.

Объектами дипфейк-махинаций становятся политики, бизнесмены и знаменитости. Иногда внешность жертвы используется в сфабрикованном ролике скандального содержания, в других случаях мошенники применяют дипфейк-технологию для вымогательства денег.

Подробнее читайте в материале «Фальшивые гости из будущего» на profile.ru.

Больше интересного на канале: Дзен-Профиль
Скачайте мобильное приложение и читайте журнал "Профиль" бесплатно:
Самое читаемое

Зарегистрируйтесь, чтобы получить возможность скачивания номеров

Войти через VK Войти через Google Войти через OK