Что общего у морали искусственного интеллекта и Шарикова
На днях был опубликован очередной, уже пятый, ежегодный отчет Стэнфордского университета «Индекс искусственного интеллекта 2022». Разных отчетов выходит много, но этот – почти культовый, его с нетерпением ждут все – от разработчиков до бизнесменов и от политиков до журналистов. Отчет не только подводит итоги, но и как минимум на год вперед задает тренды одной из самых динамичных областей, где бескомпромиссная конкуренция давно уже рассматривается всеми ключевыми игроками как экзистенциальный вызов национального масштаба.
Один из лейтмотивов доклада – этика искусственного интеллекта (ИИ). В прошлогоднем отчете соответствующий раздел так и назывался: «Этические вызовы прикладного ИИ». Собственно, он был не про этику, а про состояние дел: где и как преподается предмет, какие научные и практические конференции проходят, как СМИ освещают вопрос и т.п. Отдельная глава была посвящена институционализации морали: все наперегонки бросились придумывать нормы, правила и механизмы саморегуляции, от национальных до академических, а у каждой уважающей себя компании появился собственный кодекс этики ИИ. Кроме того, специальный раздел подробно рассматривал вопросы полового равенства, а также представленность различных рас и гендеров в группах разработчиков, в исследовательских коллективах, в преподавательском корпусе и среди авторов публикаций.
В этом году про разнообразие умолчали. Зато самой этике уделили в два раза больше места. Теперь это называется «Техническая этика ИИ». Отчет специально отмечает, что он фокусируется на метриках, которые приняты сообществом для демонстрации прогресса, достигнутого в устранении предвзятости и продвижении справедливости. Технически речь идет об уменьшении алгоритмических искажений для обеспечения беспристрастности результатов. Дело хорошее, и понятно, что в одном документе просто невозможно целиком раскрыть такую большую и сложную тему, как этика. Но думается, что это во многом вынужденный ход: двигаться вперед надо, а реального прогресса в области этики ИИ не видно.
Несмотря на то, что только за последний год объем публикаций по теме вырос в пять раз, все в основном продолжают гонять туда-сюда дребезжащую вагонетку Филиппы Фут, упражняться в утилитаристских подсчетах, как максимизировать счастье для всех и пользу для каждого, и соревноваться в изобретении модных терминов. А программисты продолжают мусолить три закона робототехники. Азимов не просто замечательный популяризатор науки, но и серьезный мыслитель, хотя его мысли часто спрятаны за увлекательным изложением. В «законах» он пытался дать свое решение проблемы, поставленной Чапеком в «Россумских универсальных роботах». Чапек говорил о моральной ответственности людей перед созданными ими роботами. Азимов пытается перевести вопрос в плоскость обязанностей искусственного разума по отношению к человеку. Но, как справедливо пишет шведский философ, основатель Всемирной ассоциации трансгуманистов Humanity+ Ник Бостром: «К стыду нашего вида, эти правила оставались неизменными более полувека, несмотря на очевиднейшие пробелы, которые, кстати, видел и сам Азимов… Наверное, писатель специально изложил законы в таком расплывчатом виде, оставив для себя и своих героев шанс каждый раз трактовать их несколько иначе, а заодно и нарушать разными занимательными способами».
Козья морда: что лингвистика может сказать о субъектности роботов
Алгоритмические искажения действительно имеют место. Алгоритм может изменить вывод для какой-то группы – этнической, возрастной, гендерной, в результате чего она подвергнется дискриминации или, наоборот, получит необоснованное преимущество. Например, полицейская система предвзято отнесется к афроамериканцу, автопилот решит, что в безвыходной ситуации нужно давить старушку, а не молодого человека, а программа подбора персонала поставит неоправданно высокую оценку кандидату с нетрадиционной идентичностью. Тут возникает много вопросов, и технические – далеко не самые сложные. Сами люди отнюдь не беспристрастны. Нам может это нравиться или не нравиться, но это важный механизм социальной адаптации и даже биологического выживания. Если ИИ призван заменять человека в том смысле, что он судит, как человек, такой ИИ не может быть беспристрастным. А пристрастия могут быть очень разными.
Нам предлагают решать проблему, используя готовые наборы уже размеченных данных. Как это работает? Допустим, вы придумали какой-то алгоритм. Просто возьмите подходящий набор и используйте заданные показатели (бенчмарки), чтобы посмотреть, насколько результаты работы вашего алгоритма соответствуют средней температуре по больнице. И тут начинается самое интересное.
Хотя вроде бы есть много разных метрик, большинство из них сводится к справедливости (fairness), измеряемой тем или иным способом. Для современной западной мысли справедливость вообще один из центральных принципов моральной, а еще больше политической, философии. В философии справедливость – justice. Это слово фигурирует и в названии фундаментального труда основоположника либерально-государственной концепции права, видного американского философа Джона Ролза «Теория справедливости» (1971). Но именно Ролз развивает идею justice как fairness – политическое общество, где свободные граждане имеют равные права, чтобы без ограничений взаимодействовать в рамках эгалитарной экономической системы. Упрощая, можно сказать, что justice – это социальная справедливость, которая опирается на закон (юстицию), а fairness ближе к субъективной честности, как в фейр-плей («честной игре»). Это тонко чувствовал сын лейтенанта Шмидта: «Я хотел честно, – сказал Балаганов, собирая деньги с кровати, – по справедливости. Всем поровну, по две с половиной тысячи». Поровну – это очень важно. У французов, например, свои традиции философии, и они обычно переводят fairness Ролза именно как équité, то есть всем сестрам по серьгам.
Что укладывается в голове: развитие интерфейсов "мозг–компьютер" радикально изменит мир
Очень конкретно на этот счет выразился другой известный персонаж: «Голова пухнет. Взять всё, да и поделить...» И многие, вслед за Шариковым, предпочитают не напрягать мозги и попадают в ловушку редукционизма. Справедливость, что бы под этим ни понималось, – важна. Но этика не сводится к справедливости. Или к любой другой метрике или даже их набору. Как человек не сводится к голове, конечностям и туловищу, набитому внутренними органами. Инженеры заблуждаются, полагая: всё дело в том, что мы не учитываем все элементы и их связи. Нужно, дескать, просто построить более точную модель – и дело в шляпе. Это механицизм – один из видов всё того же редукционизма. Вот что, например, пишет Жан Бодрийяр в своей культовой книге «Символический обмен и смерть» (1976): «Для медицины базовой формой тела является труп. Иначе говоря, труп – это идеальный, предельный случай тела в его отношении к системе медицины. Именно его производит и воспроизводит медицина как результат своей деятельности, проходящей под знаком сохранения жизни». Этический редукционизм имеет дело даже не с трупом, а с окаменелыми фрагментами. Мы можем, подобно палеонтологу, пытаться восстановить по ним общую картину, но в лучшем случае получим правдоподобное чучело, а не живой организм.
Механицизм порождает не только иллюзии, но и труднопреодолимое искушение заменить решение реальных проблем составлением списков и проставлением галочек. Такой подход очень удобен и легко поддается автоматизации. Неудивительно, что он так популярен среди программистов, для которых этика превращается в еще один вид тестирования. К тестированию функциональности, производительности, безопасности, юзабилити и прочим добавятся моральные автотесты. Тут уже остается «один маленький шаг для человека, но гигантский скачок для всего человечества» – свести вообще всю этику к чек-листам. И это уже происходит сплошь и рядом.
Стэнфордский отчет милостиво благословляет такой подход. Вряд ли известные и уважаемые эксперты, которые готовили публикацию, имели это в виду. Но не приходится сомневаться, что большинство с радостью пойдет по дорожке полной инструментализации этики. Это очень удобная дорожка, идти можно быстро, не обращая внимания, что там на обочине.
На самом деле всё гораздо сложнее, чем просто выхолащивание морали. Запад давно тяготится «старой» этикой. Столь любимая нашими топовыми менеджерами и программистами Айн Рэнд давно уже без обиняков провозгласила: «Каждый аспект Западной культуры требует нового этического кода – рациональной этики – залога ее перерождения». Ждем появления менеджеров по этике и директоров по морали.
Читайте на смартфоне наши Telegram-каналы: Профиль-News, и журнал Профиль. Скачивайте полностью бесплатное мобильное приложение журнала "Профиль".