В соглашении, пишет Reuters, представлены рекомендации для компаний, которые занимаются разработкой ИИ. Власти 18 стран призывают такие корпорации защищать системы искусственного интеллекта от злоумышленников.
Компаниям рекомендовано изначально делать системы ИИ безопасными по структуре, чтобы киберпреступники их использовать не могли. Потенциальные риски должны учитываться на всех стадиях работы с технологией. Как именно нужно реализовывать эту рекомендацию, в документе не говорится.
Инструкции пока не имеют обязательной силы. Эксперты все же считают соглашение с участием 18 стран важным шагом по общей регуляции отрасли. Директор Управления кибербезопасности и Агентства по безопасности инфраструктуры Джен Истерли заявила, что документ подчеркивает важность акцентирования разработчиков ИИ на безопасности.
Подписание документа произошло всего через несколько дней после того, как появилась информация о предполагаемом прорыве в разработке технологий искусственного интеллекта. Вероятно, его сумела совершить компания OpenAI. Источники Reuters утверждали, что новая разработка корпорации потенциально несет угрозу для человечества.