Профиль

Эксперты ВШЭ разобрались, кто несет ответственность за действия искусственного интеллекта

Искусственный интеллект (ИИ) вскоре может стать участником принятия юридически значимых решений, по сути, система ИИ фактически будет наделена властью, считают эксперты Институт права цифровой среды НИУ ВШЭ. Поэтому должен быть решен вопрос о порядке ответственности в случае "автоматизированного принятия решения". О том, должны ли отвечать за действия системы ее разработчики, и какие меры государство может принять для развития инвестпроектов в сфере ИИ, эксперты рассказали в специальном докладе.

В докладе "Правовые аспекты использования искусственного интеллекта: актуальные проблемы и возможные решения" отмечается, что уже в самое ближайшее время во всем мире будет наблюдаться процесс постепенного правового признания тех или иных "действий" системы искусственного интеллекта и их последствий, а также формализации этих действий. Быстрое развитие технологий искусственного интеллекта ставит вопрос о правовом статусе использования систем ИИ, обладающих разной степенью автономности: по некоторым прогнозам, к 2075 году мыслительные процессы роботов уже нельзя будет отличить от процессов мышления человека.

Эксперты подчеркивают, что "принятие юридически значимых решений может обладать характером властного воздействия, то есть, по сути, система ИИ фактически будет наделена властью, в этом случае должен быть определенно решен вопрос о порядке ответственности в случае такого автоматизированного принятия решения".

Расширение использования ИИ поднимает много проблем, одной из важнейших является достижение баланса между экономическими интересами и интересами общества, ставшая отражением глубокого конфликта выгоды и морали. В России этические проблемы развития и использования цифровых технологий в РФ не являются на данный момент действительно важной частью повестки не только государственных органов власти и коммерческих структур, но и общества в целом, подчеркивают авторы доклада.

Тем не менее, этой темой государству придется заниматься. При рассмотрении ответственности ИИ целесообразно говорить, в первую очередь, о деликатной ответственности, то есть меры ответственности должны быть установлены как реакция на вред, который ИИ может причинить или причиняет.

"В случае признания ИИ только объектом права, к чему пока что склоняются в мире, ответственность должна быть распределена по разным этапам жизненного цикла ИИ (этап разработки, этап эксплуатации, этап утилизации). При этом ответственность ИИ сводится не к карательно-воспитательным мерам, а к установлению действенного механизма управления рисками", – считают эксперты ВШЭ.

В свете возможного возложения ответственности на разработчиков необходимо хотя бы на начальных этапах предусмотреть сбалансированную систему иммунитетов для них, добавив обязательное страхование ответственности, а также регистрацию систем ИИ. В случае признания ИИ субъектом возможно установление режима совмещенной ответственности, когда субсидиарную ответственность могут нести и создатель ИИ, и его владелец или иной субъект, говорится в исследовании.

Эксперты ВШЭ также предложили способы устранения барьеров для инвестпроектов в сфере искусственного интеллекта и робототехники. В частности, речь идет о создании экспериментальных правовых режимов для разработки новых технологий специальных правовых режимов для привлечения инвестиций, предусматривающих налоговые льготы.

Самое читаемое
Exit mobile version