26 апреля 2024
USD 92.13 -0.37 EUR 98.71 -0.2
  1. Главная страница
  2. Новости
  3. Дипфейк-видео станут неразрешимой проблемой кибербезопасности в мире
видео кибербезопасность Наука и Технологии

Дипфейк-видео станут неразрешимой проблемой кибербезопасности в мире

Поддельные видео в интернете, смоделированные искусственным интеллектом, - дипфейки - развиваются в разы быстрее, чем алгоритмы, создаваемые для их определения. В результате контролировать распространение дипфейков техническими методами сегодня невозможно, а в будущем станет еще сложнее, считают специалисты.

©Alexandra ROBINSON / AFP / EastNews

По словам профессора Университета Южной Калифорнии Хао Ли, разрабатывающего алгоритмы по определению дипфейков, пока ни один инструмент не может со стопроцентной точностью отличить дипфейк от настоящего видеоролика. Лучший результат, которого удалось добиться, — идентификация подделки с вероятностью в 97%. Остается лакуна в 3%, следовательно, минимум 500 из 15 тысяч распространяемых в интернете дипфейк-роликов не могут быть распознаны. При этом их качество продолжает расти.

«На рынке нет технологий, призванных выявлять и распознавать подобные подделки, — сообщил «Профилю» источник на заводе по производству микрофонов для биометрии «Октава» (входит в «Ростех»). — Если сейчас профессиональный звукорежиссер еще может выявить подделку голоса, обратив внимание на рваный ритм, неестественные интонации в конце слов, то в течение года технология разовьется настолько, что распознать ее без спецсредств будет невозможно».

В конечной перспективе противостоять дипфейкам, в основе которых лежат нейросети, смогут лишь другие нейросети. Но поскольку и тем и другим для обучения требуется большое количество данных, дипфейки на этом поле заведомо побеждают. Им доступны миллиарды видеозаписей, тогда как программы распознавания могут работать лишь с теми 15 тысячами фальшивок, которые сегодня загружены в сеть. В этих условиях отыграть у «поддельной индустрии» стартовую фору вряд ли удастся.

Объектами дипфейк-махинаций становятся политики, бизнесмены и знаменитости. Иногда внешность жертвы используется в сфабрикованном ролике скандального содержания, в других случаях мошенники применяют дипфейк-технологию для вымогательства денег.

Подробнее читайте в материале «Фальшивые гости из будущего» на profile.ru.

Подписывайтесь на PROFILE.RU в Яндекс.Новости или в Яндекс.Дзен. Все важные новости — в telegram-канале «PROFILE-NEWS».