С 1 октября 2023 года пользователи портала госуслуг могут зайти в свои личные кабинеты только при подключенной двухфакторной аутентификации. Порядок изменен согласно постановлению правительства о Единой системе идентификации и аутентификации.
Документ предполагает дополнительное подтверждение правомерности действий через одноразовый СМС-код или биометрические данные. Это необходимо для защиты от хакеров, способных взламывать пароли и даже обманывать системы биометрической идентификации (распознавание по голосу или лицу) личности.
Глубокие заблуждения: в КНР начали законодательно бороться с дипфейками
В марте 2021 года в СМИ появились публикации о семейной паре из Китая, которая на протяжении нескольких лет фактически жила чужой жизнью. Снимки случайных людей супруги приобретали в даркнете по цене $4,5 за штуку.
С помощью специальных программ статичные изображения «оживляли». На видео они поворачивали голову, кивали, моргали, двигали губами. Делали это настолько естественно, что фантомы успешно проходили идентификацию личности, регистрировали фирмы-однодневки, вели дела с банками и налоговой службой.
Пример вроде бы частный, но неправомерное использование нейросетей в Китае носит масштабный характер. Положение настолько серьезное, что государство не видит другого выхода, кроме как ограничить применение систем распознавания лиц. В августе 2023 года Управление киберпространства КНР предложило вернуться к небиометрическим методам идентификации личности.
В России эти вопросы регламентирует Федеральный закон №572-ФЗ, вступивший в силу в декабре 2022 года. Документ предписывает хранить первичные биометрические образцы в государственной информационной системе. Коммерческие структуры имеют доступ к векторам – математическим кодам персональных данных граждан.
Меры приняты жесткие, но, к сожалению, принципиально ситуацию они не улучшили. Персональная информация, как и прежде, попадает в дарктнет из разных источников. В июле 2023 года со ссылкой на Роскомнадзор ТАСС сообщил: в первом полугодии зафиксировано 76 инцидентов, в сеть попали около 177 млн записей. Это почти в четыре раза больше, чем за аналогичный период прошлого года.
Когда в руки мошенников в одном пакете попадают биометрия, паспортные данные, номера телефонов, домашние адреса, медкарты конкретных людей, не составляет труда с помощью нейросетей сгенерировать их голоса и даже видеозаписи. Все это они могут использовать для шантажа, вымогательства, дискредитации.
Известность получила история гендиректора британской компании, который по телефону получил указание от руководителя головного офиса в Германии срочно перевести по указанному счету в венгерском банке почти $250 тыс. Распоряжение выполнил, не подозревая, что общался с искусственным интеллектом, настолько точно были сымитированы манера общения и немецкий акцент шефа.
В США хакеры применяют нейросети, чтобы копировать голоса людей, родственников которых они выбрали в качестве объектов для вымогательства. По данным Федеральной торговой комиссии, в 2022 году этот вид телефонного мошенничества приобрел массовый характер – зафиксировано более 5000 случаев, ущерб оценивается примерно в $11 млн.
В искусственном интеллекте сегодня видят опасного конкурента представители некоторых профессий. В начале текущего года Союз дикторов обратился к Госдуме с предложением ввести регулирование синтеза человеческого голоса.
Инструмент новой реальности: можно ли защититься от дипфейков?
Без лицензирования нельзя исключить неправомерное использование – фактически кражу – голосов популярных дикторов и артистов в коммерческой рекламе, голосовых помощниках, онлайн-синтезаторах и так далее. Генерировать речь дешевле, чем оплачивать работу голосового артиста.
Дикторы и радиоведущие – публичные люди, их речь можно записать в радио- или телеэфире. Утечки же фотографий, видео- и аудиозаписей частных лиц нередко происходят из программ и приложений. Так, в 2019 году выяснилось, что фоторедактор FaceApp хранит на серверах компании не только фото, но и данные геолокации, IP-адреса и идентификаторы устройств.
В целом приложения, способные менять на фотографиях внешность, возраст, даже пол человека, отнюдь не безобидны. Злоумышленники используют их для кэтфишинга: создают фейковые личности, чтобы выманивать у простаков деньги. И за милой девушкой, якобы ищущей вторую половинку на сайте знакомств, может скрываться зрелый мужчина, намеренный опустошить кошельки поклонников.
Часто персонажи реальные, говорит ведущий исследователь данных «Лаборатории Касперского» Владислав Тушканов. На хакерских форумах и в даркнете встречаются предложения о продаже сгенерированных видео с известными людьми, причем цены достигают тысячи долларов за минуту.
По его мнению, обращение мошенников к нейросетям в современных условиях стало возможным по двум причинам: относительная простота использования и высокое качество. По описанию, например, можно сгенерировать изображение в удобном веб-интерфейсе, тем самым повысить доверие к сайту-двойнику или схеме, в которую пытаются вовлечь жертву.
«Люди склонны больше доверять визуальному контенту, особенно если на видео знаменитость. Точно так же человек обращает внимание на письмо, написанное нейросетью красиво и без ошибок», – подчеркнул эксперт.
Владислав Тушканов рекомендует быть бдительным, не переходить по подозрительным ссылкам, пользоваться защитными решениями. В противном случае высоки риски, случайно скачав на свое устройство вредоносную программу, пополнить список жертв кибермошенников.
Чат-боты на основе нейросетей, как правило, используют для создания фишинговых рассылок. Тексты, составленные искусственным интеллектом, получаются более «человеческими», не содержат синтаксических, грамматических и логических ошибок, подтверждает специалист по информационной безопасности компании «Код Безопасности» Мария Фесенко.
«Некоторые умельцы обходят запрет чат-бота выдавать опасную информацию. Они создают вредоносный код или фишинговую копию чужого сайта для обмана клиентов реальной компании», – отметила эксперт.
Нейросети – удобный инструмент для генерации фейковых фото и видео стихийных бедствий, техногенных аварий, боевых действий. Последствия могут быть и политические, и экономические. Собеседница «Профиля» привела в пример ложную публикацию о взрыве и пожаре у Пентагона, которая появилась 22 мая 2023 года в соцсетях на поддельном аккаунте одного из западных информагентств. Результат – падение фондового рынка США и паника среди населения.
«Нейросети превратились в мощный инструмент социального инжиниринга. Чтобы не быть обманутым, требуются критическое мышление и кибергигиена. Нельзя переходить по сомнительным ссылкам и сходу доверять любым новостям. Для подтверждения или опровержения событий требуется максимум 12 часов», – отметила Мария Фесенко.
В то же время средства киберзащиты используют нейросети для фильтрации трафика, чтобы исключать внешние опасности. Аналогичная функция заложена в антивирусах. Машинное обучение позволяет пополнять базу знаний об угрозах в режиме онлайн, а значит, технологии работают и на светлой стороне, напомнила она.