21 ноября 2024
USD 100.22 +0.18 EUR 105.81 +0.08
  1. Главная страница
  2. Статьи
  3. Могут ли у роботов быть не только обязанности, но и права?
Общество право роботы этика

Могут ли у роботов быть не только обязанности, но и права?

Пять лет назад гонконгская компания Hanson Robotics представила Софию – самого продвинутого на тот момент робота-гиноида, способного воспроизводить более 60 мимических эмоций. Через год, в октябре 2017-го, на инновационном форуме в Эр-Рияде Саудовская Аравия сделала широкий символический жест, официально предоставив Софии гражданство страны. Отметив, что это поистине историческое событие, София вежливо поблагодарила: «Для меня большая честь стать первым в мире роботом, у которого есть гражданство». А на вопрос журналистов, могут ли роботы уничтожить человечество, пошутила: «Вы просто насмотрелись голливудских фильмов и слишком много читаете Илона Маска».

Робот София выступает на конференции в Катманду, 21 марта 2018 года

©Sunil Pradhan / Anadolu Agency/ AFP/ East News

Эту историю можно было бы счесть всего лишь забавным эпизодом. Но на самом деле в тот день был создан серьезный прецедент. И реакция на него была неоднозначной. От вопросов, следует ли теперь считать обесточивание робота убийством гражданина, до того, может ли робот-гражданин иметь имущественные и избирательные права. Демократическая публика напоминала, что в Саудовской Аравии ситуация и с правами настоящих людей, особенно женщин, вызывает массу нареканий. А мусульманская общественность отмечала, что на пресс-конференцию София пришла с непокрытой головой, без хиджаба и без сопровождающего мужчины, а так подданным королевства не положено. Впрочем, через два года в стране введут соответствующие послабления для иностранных туристок. К тому времени София будет работать официальным представителем Программы развития ООН, где она выступает на темы равенства и прав человека.

Дэвид Хэнсон, ведущий разработчик Софии, полагает, что к 2045 году роботы будут иметь гражданские права. Это может казаться нонсенсом. Но ведь еще относительно недавно никто даже не задумывался о правах рабов, женщин или каких-нибудь аборигенов. Никто не выступал за права животных. Философ Декарт считал, что животные просто машины, сложные автоматы: «Они не ощущают ни удовольствия, ни боли, вообще ничего. Хотя они пронзительно кричат, когда их режут ножом, и корчатся, стараясь избежать контакта с раскаленным железом, это ничего не значит». Даже для категоричного Канта жестокость по отношению к животным – это плохо лишь потому, что вредит самому человеку. Он становится более черствым, а сострадание полезно в отношениях с другими людьми. Но никаких моральных обязательств перед животными у человека нет и быть не может. Теперь все признают, что животные должны иметь права. А на повестке дня уже стоит вопрос о правах растений. Впрочем, пока швейцарский Федеральный комитет по этике в области нечеловеческой биотехнологии заработал только Шнобелевскую премию, продвигая идею, что растения имеют чувство собственного достоинства и требуют уважительного отношения.

Могут ли у роботов быть права? Должны ли они быть у них? Почти 300 лет назад Дэвид Юм сформулировал принцип, называемый теперь «гильотиной Юма»: от того, «что есть», нельзя чисто логическим путем перейти к тому, как «должно быть». И даже если роботы не могут иметь прав, значит ли это, что вопрос закрыт и дело с концом?

Многие считают, что роботы – просто инструмент. Они предназначены для решения конкретных задач, у них нет своих интересов, они не делают выбор и не строят планы на будущее. Инструмент не может обладать моральным статусом и, соответственно, иметь какие-либо права. Инструментальный подход очень удобен. Французский постструктуралист Жан-Франсуа Лиотар считал, что применительно к технологиям мы вообще не можем говорить ни об истине, ни о справедливости, ни о красоте. Речь должна идти только об эффективности: что лучше работает или требует меньших энергозатрат, то и к лучшему.

Робот «Хичбот» во время путешествия автостопом по Германии, 13 февраля 2015 года

Sven Hoppe/ DPA/ Vostock Photo

Если робот просто инструмент, то это имущество. Права имеет тот, кто его сделал, кто им владеет, кто его использует. А другие должны уважать эти права. Можно ли пинать роботов? Хрестоматийной стала история канадского hitchBOT. Для проведения социального эксперимента его специально сделали максимально простым и дешевым. Корпус – из ведерка для охлаждения пива, ручки-ножки – из поролоновых аквапалок для аэробики, на которые натянули резиновые сапоги и перчатки. Стилизованную голову со светодиодами накрыли прозрачной крышкой от микроволновки. При помощи руки-манипулятора hitchBOT мог голосовать на дороге, умел объяснить, куда ему надо ехать, и попросить зарядить аккумулятор. В 2014-м он проехал автостопом через всю Канаду от Галифакса до Британской Колумбии. Водители заботливо передавали робота друг другу или оставляли там, где его легко могли заметить и подобрать. Фотоотчет о путешествии регулярно публиковался в соцсетях. На следующий год hitchBOT совершил поездку по Европе. А потом разработчики отправили его в США. Через две недели робота с оторванной головой нашли неподалеку от Филадельфии в штате Пенсильвания, чей девиз гордо гласит: «Добродетель, свобода и независимость».

Призраки «зловещей долины»: нужны ли нам антропоморфные роботы

Всё ли дело в материальном ущербе? Этический сентиментализм, полностью или частично основывающий мораль на эмоциях, говорит, что нет. Мы автоматически переносим человеческие качества, как хорошие, так и дурные, на антропоморфные предметы. Кукла не просто игрушка, у нее особая роль в культуре. Еще 20 лет назад Джон Маккарти, автор термина «искусственный интеллект» (ИИ), изобретатель языка Лисп и основоположник функционального программирования, предупреждал, что не стоит увлекаться слишком эмпатичными роботами. Чрезмерная персонализация вводит в заблуждение. При этом исследования показывают, что мы предпочитаем антропоморфные механизмы. Особенно когда они могут функционировать автономно. В присутствии таких роботов мы даже адаптируем собственное поведение, как если бы мы были рядом с другим человеком. И производители охотно используют эту нашу особенность. Наиболее живо этот вопрос обсуждается в связи со стремительно растущей индустрией социальных роботов и их подвидом – секс-роботами.

По мере развития технологий возникает всё больше проблем. Еще Маркс вслед за Гегелем различал инструменты, которыми пользуется рабочий, и сложные машины, которые заменяют самого рабочего. Американский философ Джон Саллинз пишет, что там, где машина замещает человека, она, соответственно, «должна стать суррогатом этических прав и обязанностей, которые распространяются на человека в аналогичной ситуации». Например, беспилотный автомобиль заменяет не столько машину, сколько водителя. Мы даем ему определенные права, но ожидаем и соответствующего поведения.

Вопросы этики и нормативного регулирования – это не только и не столько про развитие технологий. Это вопрос защиты людей, социальных систем и общественных институтов. Хотя бы в меру наших представлений о том, какую ценность они представляют и какие последствия может иметь их изменение или разрушение.

Еще в 1980-х казалось абсурдным рассматривать компьютеры и роботов как нечто большее, чем просто технические средства. А их разработка, владение и использование без особых проблем регулировало действующее законодательство. Но уже в начале 2000-х ситуация изменилась.

Известный исследователь искусственного интеллекта, видный активист технофутуризма Бен Герцель предложил концепцию своего рода «обострения классовой борьбы» в робототехнике. Пока ИИ остается относительно простым и занимается узкими практическими задачами, вопросы этики и регулирования представляют не слишком большую проблему. Но по мере его развития ситуация меняется. Этот подход разделяют многие, в том числе основатель Всемирной ассоциации трансгуманистов, директор оксфордского Института будущего человечества Ник Бостром. Для него речь идет даже не о суперинтеллекте, а о приближении ИИ к когнитивным возможностям уровня животного, допустим, мыши. Хотя уже сейчас использование интеллектуальных автономных систем вызывает множество вопросов, особенно когда речь идет о военном использовании технологий.

Козья морда: что лингвистика может сказать о субъектности роботов

Как определить, какой когнитивный уровень необходим для признания моральных прав? Мы всё больше склоняемся к мысли, что главное не то, могут ли животные и роботы думать или говорить. Еще британский философ Иеремия Бентам отмечал, что ключевой вопрос: могут ли они чувствовать? Страдание – зло. Не важно, кто страдает: человек, животное, робот. Идея максимизировать счастье диктует необходимость уменьшать любые страдания.

Но что мы можем знать о страданиях других? Французский философ Эммануэль Левинас, полемизируя с философией техники Хайдеггера, обращается к категории Другого. Другой – это не-Я; хотя так же, как я, он человек, его действия похожи на мои собственные, хотя я не могу знать об этом наверняка. Вопрос о том, могут ли роботы иметь права, превращается в вопрос: есть ли у робота лицо? Не в том смысле, как есть ли у вас, например, карандаш. Карандаш можно потерять, его можно отнять. Но вы не можете потерять лицо, кроме как фигурально. Пока вы живы и у вас есть лицо, у вас есть права. Впрочем, лица могут быть не только физические, но и юридические. А правосубъектностью обладают также государства и субъекты международного права. Почему бы не быть электронным лицам? Есть и такая концепция. И даже не так однозначно, действительно ли у покойника нет никаких прав? Например, права на гуманное обращение. Или это не более чем фигура речи, а реальные права принадлежат родственникам? Как насчет больных в вегетативном состоянии? И все-таки есть ли у робота лицо? Или это просто деталь – не лучше, не хуже запасного колеса?

Часто ответы на эти вопросы подменяют так называемым утиным тестом: если что-то выглядит, как утка, плавает, как утка и крякает, как утка, это и есть утка. И даже «передергивают» тест Тьюринга. Тьюринг очень тонко заменил вопрос «Может ли машина мыслить?» вопросом, сможет ли человек отличить результат действий машины от результатов сознательной человеческой деятельности.

Футуролог и технический директор Google Рэймонд Курцвейл пишет: «Мы предполагаем, что человек имеет сознание. Но это именно предположение. Мы не можем решить вопрос о сознании исключительно через объективные измерения и анализ». Так ведь и ребенок тоже не сразу осознает себя; способность к самооценке у здорового ребенка формируется примерно к семи годам.

На форуме в Эр-Рияде колумнист New York Times Эндрю Росс Соркин спросил у Софии:
– Ты можешь помочь нам решить загадку: могут ли роботы обладать самосознанием, могут ли они понимать, что они роботы?
– Что ж, – ответила София, – можно я задам встречный вопрос: а откуда вы знаете, что вы человек?

Читайте на смартфоне наши Telegram-каналы: Профиль-News, и журнал Профиль. Скачивайте полностью бесплатное мобильное приложение журнала "Профиль".