Профиль

Политтехнолог-демократ признался, что с помощью ИИ подделал голос Байдена для обзвона избирателей

Политтехнолог-демократ с помощью ИИ создал дипфейк Байдена

Политтехнолог, работающий с демократами, признался, что с помощью искусственного интеллекта (ИИ) подделал голос президента США Джо Байдена. Имитация голоса главы Белого дома была использована в рамках массового обзвона избирателей в штате Нью-Гэмпшир. Об этом в понедельник, 26 февраля, пишет NBC News.

Президент США Джо Байден

Президент США Джо Байден (архивное фото)

©Global Look Press/Keystone Press Agency

Созданный дипфейк выступал с призывом к демократам воздержаться от участия во внутрипартийных выборах, что привлекло внимание полицейских. В результате они инициировали расследование.

"Вечером в воскресенье, 20 января, за два дня до праймериз в Нью-Гэмпшире я начал автоматический обзвон 5000 демократов, которые с наибольшей вероятностью пришли бы голосовать. Автоматическая версия голоса президента Джо Байдена была создана с использованием легкодоступной онлайн-технологии", – заявил Стив Крамер, слова которого цитирует NBC News.

На тот момент Стив Крамер работал с конгрессменом Дином Филлипсом, противником Байдена за право представлять демократов на президентских выборах 2024 года. Однако имя клиента Крамер не связал со своими действиями. При этом сам Филлипс, в свою очередь, осудил имитацию голоса президента США.

Крамер также подчеркнул необходимость принять меры против подобных инцидентов в будущем. По его словам, с небольшой суммой в $500 кто угодно имеет возможность повторить подобный обзвон. Он считает, что это требует немедленного внимания со стороны регулирующих органов и платформ.

Дипфейк (Deepfake) – это технология, основанная на искусственном интеллекте, использующаяся для создания или изменения аудио и видео. В результате человек, которого имитируют, кажется, говорит или делает что-то, чего он на самом деле не говорил и не делал.

Самое читаемое
Exit mobile version