Могут ли у роботов быть не только обязанности, но и права?
Пять лет назад гонконгская компания Hanson Robotics представила Софию – самого продвинутого на тот момент робота-гиноида, способного воспроизводить более 60 мимических эмоций. Через год, в октябре 2017-го, на инновационном форуме в Эр-Рияде Саудовская Аравия сделала широкий символический жест, официально предоставив Софии гражданство страны. Отметив, что это поистине историческое событие, София вежливо поблагодарила: «Для меня большая честь стать первым в мире роботом, у которого есть гражданство». А на вопрос журналистов, могут ли роботы уничтожить человечество, пошутила: «Вы просто насмотрелись голливудских фильмов и слишком много читаете Илона Маска».
Эту историю можно было бы счесть всего лишь забавным эпизодом. Но на самом деле в тот день был создан серьезный прецедент. И реакция на него была неоднозначной. От вопросов, следует ли теперь считать обесточивание робота убийством гражданина, до того, может ли робот-гражданин иметь имущественные и избирательные права. Демократическая публика напоминала, что в Саудовской Аравии ситуация и с правами настоящих людей, особенно женщин, вызывает массу нареканий. А мусульманская общественность отмечала, что на пресс-конференцию София пришла с непокрытой головой, без хиджаба и без сопровождающего мужчины, а так подданным королевства не положено. Впрочем, через два года в стране введут соответствующие послабления для иностранных туристок. К тому времени София будет работать официальным представителем Программы развития ООН, где она выступает на темы равенства и прав человека.
Дэвид Хэнсон, ведущий разработчик Софии, полагает, что к 2045 году роботы будут иметь гражданские права. Это может казаться нонсенсом. Но ведь еще относительно недавно никто даже не задумывался о правах рабов, женщин или каких-нибудь аборигенов. Никто не выступал за права животных. Философ Декарт считал, что животные просто машины, сложные автоматы: «Они не ощущают ни удовольствия, ни боли, вообще ничего. Хотя они пронзительно кричат, когда их режут ножом, и корчатся, стараясь избежать контакта с раскаленным железом, это ничего не значит». Даже для категоричного Канта жестокость по отношению к животным – это плохо лишь потому, что вредит самому человеку. Он становится более черствым, а сострадание полезно в отношениях с другими людьми. Но никаких моральных обязательств перед животными у человека нет и быть не может. Теперь все признают, что животные должны иметь права. А на повестке дня уже стоит вопрос о правах растений. Впрочем, пока швейцарский Федеральный комитет по этике в области нечеловеческой биотехнологии заработал только Шнобелевскую премию, продвигая идею, что растения имеют чувство собственного достоинства и требуют уважительного отношения.
Могут ли у роботов быть права? Должны ли они быть у них? Почти 300 лет назад Дэвид Юм сформулировал принцип, называемый теперь «гильотиной Юма»: от того, «что есть», нельзя чисто логическим путем перейти к тому, как «должно быть». И даже если роботы не могут иметь прав, значит ли это, что вопрос закрыт и дело с концом?
Многие считают, что роботы – просто инструмент. Они предназначены для решения конкретных задач, у них нет своих интересов, они не делают выбор и не строят планы на будущее. Инструмент не может обладать моральным статусом и, соответственно, иметь какие-либо права. Инструментальный подход очень удобен. Французский постструктуралист Жан-Франсуа Лиотар считал, что применительно к технологиям мы вообще не можем говорить ни об истине, ни о справедливости, ни о красоте. Речь должна идти только об эффективности: что лучше работает или требует меньших энергозатрат, то и к лучшему.
Робот «Хичбот» во время путешествия автостопом по Германии, 13 февраля 2015 года Sven Hoppe/ DPA/ Vostock Photo
Если робот просто инструмент, то это имущество. Права имеет тот, кто его сделал, кто им владеет, кто его использует. А другие должны уважать эти права. Можно ли пинать роботов? Хрестоматийной стала история канадского hitchBOT. Для проведения социального эксперимента его специально сделали максимально простым и дешевым. Корпус – из ведерка для охлаждения пива, ручки-ножки – из поролоновых аквапалок для аэробики, на которые натянули резиновые сапоги и перчатки. Стилизованную голову со светодиодами накрыли прозрачной крышкой от микроволновки. При помощи руки-манипулятора hitchBOT мог голосовать на дороге, умел объяснить, куда ему надо ехать, и попросить зарядить аккумулятор. В 2014-м он проехал автостопом через всю Канаду от Галифакса до Британской Колумбии. Водители заботливо передавали робота друг другу или оставляли там, где его легко могли заметить и подобрать. Фотоотчет о путешествии регулярно публиковался в соцсетях. На следующий год hitchBOT совершил поездку по Европе. А потом разработчики отправили его в США. Через две недели робота с оторванной головой нашли неподалеку от Филадельфии в штате Пенсильвания, чей девиз гордо гласит: «Добродетель, свобода и независимость».
Всё ли дело в материальном ущербе? Этический сентиментализм, полностью или частично основывающий мораль на эмоциях, говорит, что нет. Мы автоматически переносим человеческие качества, как хорошие, так и дурные, на антропоморфные предметы. Кукла не просто игрушка, у нее особая роль в культуре. Еще 20 лет назад Джон Маккарти, автор термина «искусственный интеллект» (ИИ), изобретатель языка Лисп и основоположник функционального программирования, предупреждал, что не стоит увлекаться слишком эмпатичными роботами. Чрезмерная персонализация вводит в заблуждение. При этом исследования показывают, что мы предпочитаем антропоморфные механизмы. Особенно когда они могут функционировать автономно. В присутствии таких роботов мы даже адаптируем собственное поведение, как если бы мы были рядом с другим человеком. И производители охотно используют эту нашу особенность. Наиболее живо этот вопрос обсуждается в связи со стремительно растущей индустрией социальных роботов и их подвидом – секс-роботами.
По мере развития технологий возникает всё больше проблем. Еще Маркс вслед за Гегелем различал инструменты, которыми пользуется рабочий, и сложные машины, которые заменяют самого рабочего. Американский философ Джон Саллинз пишет, что там, где машина замещает человека, она, соответственно, «должна стать суррогатом этических прав и обязанностей, которые распространяются на человека в аналогичной ситуации». Например, беспилотный автомобиль заменяет не столько машину, сколько водителя. Мы даем ему определенные права, но ожидаем и соответствующего поведения.
Вопросы этики и нормативного регулирования – это не только и не столько про развитие технологий. Это вопрос защиты людей, социальных систем и общественных институтов. Хотя бы в меру наших представлений о том, какую ценность они представляют и какие последствия может иметь их изменение или разрушение.
Еще в 1980-х казалось абсурдным рассматривать компьютеры и роботов как нечто большее, чем просто технические средства. А их разработка, владение и использование без особых проблем регулировало действующее законодательство. Но уже в начале 2000-х ситуация изменилась.
Известный исследователь искусственного интеллекта, видный активист технофутуризма Бен Герцель предложил концепцию своего рода «обострения классовой борьбы» в робототехнике. Пока ИИ остается относительно простым и занимается узкими практическими задачами, вопросы этики и регулирования представляют не слишком большую проблему. Но по мере его развития ситуация меняется. Этот подход разделяют многие, в том числе основатель Всемирной ассоциации трансгуманистов, директор оксфордского Института будущего человечества Ник Бостром. Для него речь идет даже не о суперинтеллекте, а о приближении ИИ к когнитивным возможностям уровня животного, допустим, мыши. Хотя уже сейчас использование интеллектуальных автономных систем вызывает множество вопросов, особенно когда речь идет о военном использовании технологий.
Как определить, какой когнитивный уровень необходим для признания моральных прав? Мы всё больше склоняемся к мысли, что главное не то, могут ли животные и роботы думать или говорить. Еще британский философ Иеремия Бентам отмечал, что ключевой вопрос: могут ли они чувствовать? Страдание – зло. Не важно, кто страдает: человек, животное, робот. Идея максимизировать счастье диктует необходимость уменьшать любые страдания.
Но что мы можем знать о страданиях других? Французский философ Эммануэль Левинас, полемизируя с философией техники Хайдеггера, обращается к категории Другого. Другой – это не-Я; хотя так же, как я, он человек, его действия похожи на мои собственные, хотя я не могу знать об этом наверняка. Вопрос о том, могут ли роботы иметь права, превращается в вопрос: есть ли у робота лицо? Не в том смысле, как есть ли у вас, например, карандаш. Карандаш можно потерять, его можно отнять. Но вы не можете потерять лицо, кроме как фигурально. Пока вы живы и у вас есть лицо, у вас есть права. Впрочем, лица могут быть не только физические, но и юридические. А правосубъектностью обладают также государства и субъекты международного права. Почему бы не быть электронным лицам? Есть и такая концепция. И даже не так однозначно, действительно ли у покойника нет никаких прав? Например, права на гуманное обращение. Или это не более чем фигура речи, а реальные права принадлежат родственникам? Как насчет больных в вегетативном состоянии? И все-таки есть ли у робота лицо? Или это просто деталь – не лучше, не хуже запасного колеса?
Часто ответы на эти вопросы подменяют так называемым утиным тестом: если что-то выглядит, как утка, плавает, как утка и крякает, как утка, это и есть утка. И даже «передергивают» тест Тьюринга. Тьюринг очень тонко заменил вопрос «Может ли машина мыслить?» вопросом, сможет ли человек отличить результат действий машины от результатов сознательной человеческой деятельности.
Футуролог и технический директор Google Рэймонд Курцвейл пишет: «Мы предполагаем, что человек имеет сознание. Но это именно предположение. Мы не можем решить вопрос о сознании исключительно через объективные измерения и анализ». Так ведь и ребенок тоже не сразу осознает себя; способность к самооценке у здорового ребенка формируется примерно к семи годам.
На форуме в Эр-Рияде колумнист New York Times Эндрю Росс Соркин спросил у Софии: – Ты можешь помочь нам решить загадку: могут ли роботы обладать самосознанием, могут ли они понимать, что они роботы? – Что ж, – ответила София, – можно я задам встречный вопрос: а откуда вы знаете, что вы человек?