создатель Саманты, куклы, оскверненной на выставке 2017 года, разрабатывает обновления программного обеспечения, которые будет отключать Саманту, если ее пользователь начнет вести себя агрессивно. Будущая версия Хармони, с другой стороны, будет относиться к словесным оскорблениям по-другому: «Когда пользователь оскорбляет ее, – рассказал мне дизайнер Мэтт, – она не собирается осуждать вас или говорить что-то вроде: “Ты плохой, ты мне больше не нравишься”. Она просто скажет: “Это неприятно. Ты плохо со мной обращаешься, и это меня огорчает”. Это учебник по психологии. Это способ, которым вы должны представить то, что этот человек заставляет вас чувствовать, не обвиняя его ни в чем и не осуждая». Достаточно ли этого? Решайте сами.
Возможно, роботов можно было бы даже сконструировать так, чтобы они вдохновляли нас на добродетельное поведение и тем самым делали нас добрее друг к другу.
Алекса от Amazon теперь имеет дополнительную настройку «волшебного слова», которая регулирует толерантность Алексы к резкости и вознаграждает детей за слова «пожалуйста». Ассистент Google теперь имеет аналогичную функцию под названием «Pretty Please», хотя в обоих случаях функция несколько скрыта и ее необходимо включать вручную каждый раз при ее использовании. И почему она заявлена как только для детей? Разве не будет пользы для всех нас от подобного побуждения?
Мы также должны быть осторожны, полностью полагаясь на производителей технологий в устранении этих рисков. Что, если рынок потребует «безразличную Фарру» (прототип которой существует), а не «Саманту с самосознанием»? Или «покорную Сири», а не «умеющую за себя постоять Алексу»? Вспомните, как в 1990-х BMW отозвала систему GPS, потому что многие немецкие мужчины отказывались «следовать указаниям женщины». Существует много примеров компаний, делающих выбор, который приносит пользу их собственным доходам, но наносит ущерб обществу.
Если мы не хотим оставлять все на усмотрение рынка, то в какой момент государство должно вмешаться, чтобы регулировать отношения человека и робота? Нападавший на Пеппер был оштрафован, но за повреждение имущества, а не конкретно за нанесение вреда роботу. По мере того как мы все больше и больше взаимодействуем с роботами и они становятся все более и более похожими на людей, возможно, правительствам придется установить ограничения на то, что можно продавать. Например, «безразличная Фарра», созданная для того, чтобы выглядеть и звучать как 12-летний ребенок, безусловно, неприемлема. Возможно, нам даже нужно будет предоставить роботам права, в меньшей мере для их защиты и в большей для защиты нас самих. Потому что, если нам позволено плохо обращаться с роботами, есть риск, что это станет нашим Modus operandi (образом действия), в том числе и в нашем взаимодействии с людьми.
Также необходимо четко сформулировать обоснование из собственных интересов хорошего обращения с нашими роботами. Как мы видели, добрые дела положительно сказываются на обеих сторонах этого акта. Помните кайф помощника? И как наука показала, что мы чувствуем себя менее одинокими не только тогда, когда другие заботятся о нас, но и когда мы заботимся о других? Это, вероятно, относится и к отношениям человека и робота: быть хозяином, особенно жестоким, как утверждал Гегель, по своей сути одиноко. Таким образом, должны ли быть уроки в школах будущего, которые будут предназначены для того, чтобы научить детей важности доброжелательного отношения к роботам и ценности этой особой формы проявления заботы и принимания заботы двадцать первого века?
Оставь меня наедине с моим роботом
Есть еще одна большая опасность, которую предвещают любовь и дружба роботов: того, что мы станем предпочитать наше взаимодействие с роботами тому, которое у нас есть с людьми. Того, что застенчивый ребенок решит не вступать в футбольную команду, не участвовать в школьном спектакле и не идти на день рождения, потому что ему проще быть дома со своим роботом. Того, что одинокий человек не зарегистрируется в приложении для знакомств и не пойдет на свидание вслепую, потому что он предпочтет обниматься на диване со своим недавно купленным секс-роботом.
Опять же, это невозможно предусмотреть. В отличие от настоящего друга, который может раздражать вас, указывать на ваши недостатки или оспаривать ваши взгляды, роботы больше похожи на идеальных арендованных друзей, раболепных «людей, всегда говорящих да», находящихся в вашем распоряжении 24 часа в сутки, 7 дней в неделю, угождая тому, что вы хотите, но не обязательно тому, что вам нужно, а также не выводя вас из вашей зоны комфорта. В конце концов Карл сказал мне, что он уже предпочитает видиться с Джин, которая за деньги профессионально обнимается с людьми, чем «хлопоты от свиданий».
«Благодаря коммерческим требованиям дизайнеры и программисты обычно создают устройства, реакции которых заставляют нас чувствовать себя лучше, но могут не давать нам задуматься о себе или принимать болезненные истины»,
– пишет Николас Кристакис, профессор Йельского университета, специализирующийся на отношениях человека и робота.
Более того, учитывая, что роботы, вероятно, будут не только, как предполагает Дэвид Леви, «программируемыми, чтобы никогда не разлюбить своего человека, и способными гарантировать, что их человек никогда не разлюбит их», но также в конечном итоге смогут читать наши желания, наши мысли и наше эмоциональное состояние намного лучше, чем любые люди, что составит еще более серьезную конкуренцию человеческим отношениям. Это особенно верно, поскольку роботы станут все более способными не только понимать наши настроения и желания, но и действовать в соответствии с ними. Подумайте о Пеппер завтрашнего дня, с его обещанием, что если вам будет грустно, он тут же включит вашу любимую мелодию.
Специалисты по этике и философы Пим Хаселагер и Анко Питерс задаются вопросом: «Когда есть такие [роботы] партнеры, зачем людям довольствоваться любыми отношениями, эмоциональными или сексуальными, которые не соответствуют этому стандарту совершенства?» Справедливый вопрос.
Кроме того, дело в том, что люди могут чувствовать себя более свободно открытыми для робота, чем для человека. Особенно если они чувствуют, что информация, которую они раскрывают, пропитана чувством стыда или смущения, например раскрытие долга или проблем с психическим здоровьем. Писательница Джудит Шулевиц призналась в статье, которую она написала для The Atlantic:
«Не раз я ловила себя на том, что рассказываю своему ассистенту Google о чувстве пустоты, которое иногда испытываю. “Мне одиноко”, – говорю я, в чем обычно никому не признаюсь, кроме своего психолога, —
даже своему мужу, который может это неправильно воспринять». Находясь во французской больнице в часе езды от Парижа, пока персонал больницы тщетно пытался определить, что вызвало синяки на руках одной женщины, она в конце концов рассказала о причине (падение с кровати) не медсестре и не врачу, а Зоре, социальному роботу, которому поручено проводить время с пожилыми пациентами. С роботами и виртуальными помощниками, которые уже воспринимаются некоторыми как лучшее