О чем говорили этики и какое отношение Кант имеет к беспилотным автомобилям
Вправе ли человек сам решить уйти из жизни? Несет ли журналист ответственность за последствия публикаций, а ученый — за применение своих открытий? Допустимо ли пытать террориста, чтобы узнать, где он спрятал бомбу? Можно ли пожертвовать одним ради спасения многих? В такие вопросы упирается любой спор об этике. Мы далеко продвинулись в изучении звезд, но мало смогли понять про моральный закон в нас. О чем говорят этические теории и как применить их, совершая повседневный выбор?
Представьте, что по рельсам, к которым прикованы пять человек, несется неуправляемая вагонетка. Всё, что вы успеваете сделать, — это перевести стрелку на запасной путь. Впрочем, рано вздыхать с облегчением: и к запасному пути привязан один человек. Что выбрать: бездействовать или решить, кому сохранить жизнь — одному человеку или пятерым?
Наверняка многим этим дилемма покажется знакомой: в разговоре об этике ее сложно обойти стороной. Впрочем, сейчас проблема вагонетки — это не отвлеченный мыслительный эксперимент или эффектный способ начать лекцию, а реальная задача, которая стоит перед инженерами, работающими над беспилотным автомобилем.
Можно ли доверить этическое решение роботу и кто понесет ответственность за последствия? Возьмем ситуацию: на трассу выбежал ребенок, но резкое торможение может привести к тому, что пассажиры получат тяжелые травмы. Как должен действовать беспилотный автомобиль? А как поступил бы человек за рулем?
Робоэтика — это довольно амбициозный проект, ведь она говорит не о том, какие решения мы принимаем в реальной жизни, но о том, какие мы должны принимать. Знаем ли мы наверняка, какой ответ будет правильным, чтобы с уверенностью программировать моральные машины?
Мы вынуждены переосмыслять наши собственные решения везде: от теста Moral Machine, где каждый может в режиме онлайн распорядиться человеческими жизнями, до масштабных философских проектов.
Оценивая последствия нашего решения, мы выберем наименьшее из зол или не пойдем даже на минимальную жертву, если она покажется нам неэтичной? По большому счету в этике нет единого мнения: исторически она разделилась на два лагеря — консеквенциализм и деонтологию.
Интуитивно эта концепция кажется очень убедительной: мир, увы, не идеален, и ни один из выборов не может быть непогрешимым. Если не получается «счастья для всех, и чтоб никто не ушел обиженный», то лучше минимализировать вред и искать в своих действиях пользу.
Как бы цинично это ни звучало, но консеквенциалисты считают этичным отправить солдат на войну, по сути, принести их в жертву, чтобы большее количество мирных людей смогло выжить.
Но вот на практике с таким подходом возникает немало проблем. Допустим, в госпитале лежит смертельно больной человек, жить (или мучительно выживать) которому осталось не больше года. Туда же привозят троих человек, пострадавших в катастрофе. Им требуется срочная трансплантация органов. Утилитарный подход предполагает, что мы принесем больше пользы обществу, если спасем этих людей, забрав органы у умирающего, ведь его жизнь всё равно не сохранить. Но всё же большинству эта идея покажется жуткой.
Для достижения того же эффекта в кейс вагонетки вводят малоприятного толстяка. В этой версии для спасения привязанных к рельсам людей случайному очевидцу придется сбросить с моста на вагонетку тучного человека и таким образом остановить ее. Большинство опрошенных готово воспользоваться безликим механизмом — перевести стрелку, пожертвовав одним человеком ради спасения пятерых. Но эти же люди отказываются толкать толстяка с той же благой целью — хотя результат получался одинаковым в обоих случаях: пострадало меньшее количество людей.
Никто не хочет становиться убийцей: реальная человеческая жизнь, а не абстракция стрелки и путей, оказалась неприкосновенной. Толкнуть живого человека для большинства было этически недопустимым. При этом схожие ответы дают люди разных культур, возраста и образования.
Получается, что мораль универсальна, как это видел Иммануил Кант? Или наши решения всё-таки относительны — ведь они зависят от того, придется ли нам толкнуть на рельсы живого человека или механически перевести стрелку?
Как объяснить, что введение в задачу новой переменной (полного человека), разбивает всю утилитарную логику?
В основе наших суждений об этике лежат какие-то вещи, которые мы интуитивно схватываем, но не всегда понимаем на уровне здравого смысла. Возможно, именно это и есть нравственный закон, не зависящий от внешних причин, о котором говорил Кант. По его мнению, толкнуть человека на рельсы — это поступок, аморальный по своей природе.
Человек — это всегда финальная цель, а не средство, а значит, использовать его ради достижения пусть даже всеобщего блага недопустимо.
Схожий принцип, если откинуть мистический компонент, проповедовал и Достоевский. У писателя «счастье всего мира не стоит одной слезы на щеке невинного ребенка». Разница в том, что мораль Достоевского имела божественное происхождение («если Бога нет, то всё дозволено»), тогда как у Канта она автономна и не опирается на внешний авторитет, хотя философ и был верующим человеком. В центре учения Канта — автономный субъект, над которым нет никакого начальника: он сам хочет соответствовать морали.
Нравственный закон мыслителя по Канту: «Поступай так, чтобы максима твоей воли могла быть всеобщим законом». Если упростить, это почти равно принципу «относись к людям так, как хочешь, чтобы относились к тебе». Так в некоторой мере Кант возвращается к «золотому правилу нравственности» — оно прозвучало еще в Библии.
Кажется, что лучшую мораль переизобрести невозможно: совершая поступок, мы должны посмотреть на него в масштабах вселенной и ответить на вопрос — хочу ли я жить в мире, где все будут поступать так же? Если да, то твой поступок корректен.
В философии такой подход получил название деонтологии — здесь исходные мотивы важнее следствий.
Существует ли единая для всех мораль?
Но все ли, отвечая на этот вопрос, нарисуют одинаковую картину мира? То, что приемлемо для одного, рискует оказаться недопустимым для другого. Кант считал, что мы все стремимся к универсальному моральному закону, просто периодически нарушаем его, если нам это выгодно.
Но мог ли философ представить себе мир после Освенцима, когда говорил о морали, ясной и единой для всех возможных миров? Каковы перспективы кантовской этики в условиях Аушвица?
В романе У. Стайрона «Выбор Софи» показано, как язык морали теряет там всякий смысл. Эта книга — история полячки, пережившей ужасы Освенцима и сумевшей выжить. Драма героини заключалась в том, что нацисты поставили ее перед невозможным выбором: кого из ее детей они убьют первым? Жизнь самой Софи они были готовы на время сохранить: женщина прекрасно владела немецким и была полезна захватчикам, — но это не касалось ее сына и дочери. Поможет ли мораль Канта в этой ситуации, ведь любой выбор окажется бесчеловечным?
Софи откладывает смерть сына: она надеется, что его шансы на спасение выше — возможно, он сможет выбраться из концлагеря, тогда как дочь вряд ли справится с побегом. В этом решении будто есть зерно рациональности, но властен ли разум над безумием Освенцима? Ситуация Софи кажется «морально непредставимой».
Так привычные нам законы этики перестают работать: любой выбор здесь оказывается скорее морально индифферентным, ведь в нормальной ситуации он бы просто не возник.
С точки зрения морального абсолютизма, перед нами — набор универсальных этических стандартов, работающих независимо от контекста. Но условия, в которых мы совершаем этический выбор, настолько разнообразны, а подчас просто чудовищны, что определить интуитивно ясный и единый для всех случаев критерий кажется невозможным. Однако если всё относительно, не стираем ли мы границы добра и зла? Или появление вселенского закона означало бы конец человеческой морали?
Возможна ли альтернативная этика
Сейчас этика провоцирует множество дискуссий и вопросов — скорее, она находится в состоянии раздробленности, как об этом сказал философ Аласдер Макинтайр, автор книги «После добродетели» (1981). Еще с 1960-х годов философия ищет альтернативу этическим проектам прошлого: они вступают друг с другом в противоречие, а мы никак не можем найти критерии правильного решения.
Этику Канта критикуют за разрыв идеального и реального. Консеквенциализм вызывает не меньше вопросов, ведь согласно именно этой теории жизнью одного человека можно пожертвовать ради национальных интересов. Ответ, который консеквенциалисты дали бы на вопросы о насилии или смертной казни, взорвал бы ленту фейсбука.
Такое решение перестает нас устраивать: всё больше поступков, которые еще вчера были «ок», сейчас маркируются как неэтичные.
Этические законы — плод своего времени
Ответом Макинтайра стала этика добродетели. В фокусе внимания здесь личная ответственность: человек сам определяет, что должно, и отвечает за свой выбор. Добродетель — это личное свойство человека. Впрочем, оно не входит в наши настройки по умолчанию: ее нужно воспитывать, и свою роль тут играют привычки, нравы и традиции общества. То есть она формируется только в процессе социализации, о чем говорил еще Аристотель (понятие добродетели было ключевым для его этической модели).
В логике Макинтайра универсалистский проект обречен на провал. Раз мораль носит социальный характер, придать ей общечеловеческий масштаб просто невозможно, ведь она всегда формируется внутри определенного общества, а значит, является результатом его жизни и истории.
По Аристотелю, мы изучаем этику не для того, чтобы знать, что такое добродетель, а чтобы стать добродетельными. Вопрос, как всегда, в том, как это сделать.
Прикладная этика говорит о принятии нравственного решения в конкретных обстоятельствах: учитывается локальный контекст, время и место событий. Тогда мы переводим этику из идеально-должного в реально-должное — то есть в модальность «здесь и сейчас».
Может ли этика меняться, исходя из потребностей нашего «сейчас»? Если откинуть представления о ее божественном происхождении, которые долгое время были в ходу у философов, получается, что мораль — это результат эволюции, а этические нормы — условие выживания в социуме.
Мораль эволюционирует вместе с человечеством: если в скором времени мы сможем редактировать геном или клонировать дорогих нам людей, а женщинам больше не придется рожать (дети смогут появляться из искусственной матки), то у прогресса появится новое этическое измерение.
Последствия прогресса
Вопрос о том, как должны применяться технологии, касается не только тех, кто их разрабатывает. Например, нам нужно решить, есть ли у родителей право определять судьбу ребенка на уровне генетики? Приставка био- вс` чаще встречается не только перед словом «этика», но и перед словами «власть» и «политика»: развитие биотехнологий меняет наши социальные отношения. Так, отодвигая старение, мы нивелируем и привычную смену поколений. В свою очередь, это влияет на семью, политику и рынок труда.
Другой вопрос: ведут ли технологии к новой форме «классового неравенства» только на биологическом уровне? Очевидно, что доступны они будут далеко не всем.
Рискуем ли мы поделить человечество уже не на группы или страты, а на новые расы, одна из которых будет сильно опережать другую по интеллектуальным и физическим показателям — ведь их «исправят» технологии? Не создаст ли это новую почву для дискриминации?
Несмотря на опасения техноскептиков, эти вопросы рано называть неразрешимыми, просто они требуют детальной этической проработки. Сейчас мы не только меняем свое тело, гены или сознание, но подходим к моменту, когда продолжением человека становится машина (робот, компьютерный мозг).
Встает вопрос: кто может обладать моральным статусом? Традиционно его, конечно же, имел только человек.
Создавая «умные» машины, мы думаем о том, что закладывать в этот мозг и как вместе с роботами будет развиваться человеческая мораль. Мы можем закодировать логику, но возможно ли провернуть то же и с этикой?
Прежде всего машина должна принимать решения, интуитивно понятные человеку, иначе ее будут воспринимать как злого монстра. При этом человеческая этика несовершенна, а решение, верное с позиций морали, программа может посчитать ошибочным. Минимализация ущерба — типичное решение эффективной машины, но людей оно зачастую не устраивает.
Можно ли научить нейронные сети принимать этичные решения, так же как сейчас их учат распознавать образы?
Вопрос доверия к технике — это долгая история со множеством перипетий: от Толстого, видевшего угрозу в поездах (не просто так Анну Каренину он толкнул именно на рельсы), до современных поборников божественного (например, согласно любой религии вмешательство в «естественный» процесс неэтично). Создавая машину, которой будут доверять, нельзя обойти стороной этические вопросы.
Кто будет нести ответственность за выбор, сделанный роботом, кто выберет алгоритм действий? Возможно, право решать стоит предоставить владельцу.
Ждет ли нас то будущее, в котором можно будет заказать машину не только с кожаным салоном, но и с философией Канта — для тех, кто не хочет, чтобы она переезжала толстяка, спасая жизнь другим людям? И не окажется ли, что нам самим есть чему поучиться у роботов-кантианцев?
Возможно, но где-то в далекой точке сингулярности. А пока нам всё еще остается полагаться только на моральный закон в нас.