выбрали жизнь, состоящую исключительно из поедания яблок, даже если бы могли делать это, сохраняя фигуру.
Фирафикс: Думаю, нет. Так что, возможно, это не самый удачный пример. Но все равно кажется, что может быть разница между тем, что я бы выбрал, даже в идеальных условиях, и тем, что на самом деле было бы лучше для меня.
Кельвин: Бостром затеял все это как исследование наиболее желательных вариантов продолжения жизни для людей вроде нас. Он ничего не говорил о создании суперблагополучия. Это было бы гораздо эффективнее, если бы мы просто хотели, чтобы существовали исключительно хорошие жизни.
Фирафикс: Супербенефициары?
Кельвин: "Монстры полезности" - существа, которые чрезвычайно эффективны в извлечении благ из ресурсов, чем мы. Можно сконструировать существа, которым нужно очень мало ресурсов, чтобы испытывать сверхчеловеческие уровни удовольствия, или которые имеют чрезвычайно сильные предпочтения, которые тривиально легко удовлетворить. Большинство теорий о том, что делает жизнь удачной, подразумевают, что у вас могут быть супербенефициары. Но он говорил не об этом. Он говорил о том, что было бы желательно для таких людей, как мы.
Фирафикс: Да?
Кельвин: Ну, кажется правдоподобным, что то, что желательно для нас, должно быть как-то связано с тем, что мы желаем, или с тем, что мы могли бы желать, если бы абстрагировались от различных ограничений в наших знаниях и мышлении.
Фирафикс: Интересно, играет ли здесь роль страх смерти? Я имею в виду, что 50% вероятность умереть в ближайшие несколько минут была бы очень страшной. Может быть, это влияет на наш выбор?
Тессиус: Предположим, вы принимаете решение за кого-то другого - того, кого вы никогда не видели. Вы не боитесь их смерти. Если бы вам пришлось выбирать от их имени, выбрали бы вы авантюру с 50-процентным риском немедленной смерти ради 50-процентного шанса на то, что они смогут насладиться лучшей будущей утопической жизнью, которая возможна для них при достижении технологической зрелости?
Фирафикс: Кажется, что выбирать за кого-то еще страшнее! Не думаю, что я выбрал бы для кого-то такую авантюру, которую не готов был бы выбрать для себя.
Кельвин: Вы обязаны рассматривать ситуацию с их точки зрения. Если вы принимаете решение от их имени, неважно, какие шансы вы приняли бы для себя: вы должны исходить из своей наилучшей оценки того, что выбрали бы они.
Тессий: Предположим, когда они делегировали вам решение, они сказали вам делать то, что лучше для них, а не то, что сделали бы они сами?
Кельвин: Я бы попытался смоделировать их алгоритм принятия решений. Их алгоритм принятия решений привел бы к тому, что они выбрали бы некое объективное понятие блага только в том случае, если бы они действительно отдавали ему предпочтение.
Тессиус: Фирафикс?
Фирафикс: Я думаю, что в случае с ребенком, если вы пытаетесь сделать то, что лучше для него, вы не просто делаете то, что он хочет. Или даже то, что, по вашему мнению, они хотели бы, если бы имели полное представление. Вместо этого вы думаете о том, что будет полезно для них в долгосрочной перспективе. Вы стараетесь помочь им расти и развиваться, а также принимаете во внимание то, чего они хотят в данный момент. Об этом говорилось в истории с ThermoRex.
Тессий: Так, может быть, мы как дети? Мы отвергаем азартные игры, за исключением относительно высоких значений x. Но патерналистский доброжелатель хотел бы, чтобы мы согласились на азартную игру даже при довольно малых значениях x, поскольку потенциальный выигрыш действительно будет для нас очень и очень хорошим?
Фирафикс: Я не думаю, что это работает так, когда есть высокий риск смерти. Вы не стали бы подвергать своего ребенка высокому риску немедленной смерти ради того, чтобы у него было больше шансов на большой успех и счастье в дальнейшей жизни. Ну, возможно, вы сделаете это, если в противном случае его жизнь будет совершенно жалкой и несчастной - может быть, в этом случае вы согласитесь на рискованную операцию, которая имеет шанс исправить проблему. Но если ваш ребенок был достаточно здоров и имел достойные перспективы, я не думаю, что вы согласитесь на 50-процентный риск немедленной смерти ради любой возможной выгоды в будущем, какой бы большой она ни была.
Тессиус: Интересно, связано ли это с тем, что плохая вещь в примере - немедленная смерть - помешает им испытать будущие блага? Предположим, мы изменим пример. Вы можете выбрать между нормальной, но очень счастливой жизнью вашего ребенка, и он доживет до девяноста восьми лет, или жизнью, которая включает в себя первые сорок лет огромных трудностей, страданий и борьбы, но за которой последует наилучшая из возможных утопическая жизнь, и, возможно, он проживет тысячи или миллионы лет. Что бы вы тогда выбрали?
Фирафикс: Хм. Думаю, это может склонить меня к тому, чтобы принять предложение.
Тессий: Тогда, может быть, мы могли бы определить, насколько желанной для вас может быть утопическая жизнь, рассмотрев, на какое наибольшее количество временных страданий вы готовы пойти, чтобы достичь ее?
Кельвин: Я не понимаю, почему должно иметь значение, является ли отрицательная сторона в азартной игре риском смерти или каким-то другим неприятным событием. Вы должны вычислить ожидаемую стоимость в любом случае. Вы полагаетесь на какую-то интуицию, влияющую на человека?
Тессиус: Не уверен, я просто исследую...
Фирафикс: Что такое интуиция, влияющая на человека?
Тессий: Он имеет в виду идею о том, что, когда мы принимаем моральное решение, есть разница, пользуемся ли мы благами существующего человека (или человека, который будет существовать независимо от нашего решения) или вместо этого создаем нового человека, который будет пользоваться аналогичными благами. Некоторые философы утверждают, что у нас есть моральные основания для увеличения благосостояния существующих людей, но нет моральных оснований (или они гораздо слабее) для появления на свет новых людей, чье существование добавило бы столько же к общему количеству благосостояния в мире. Лозунг гласит: у нас есть причины делать людей счастливыми, но не делать счастливыми людей.
Кельвин: Если в игре участвует интуиция, влияющая на человека, она также может повлиять на наше суждение о второй версии вашего мысленного эксперимента.
Фирафикс: Это потому, что выгода, которой вы или ребенок будете пользоваться, начнется только через сорок лет в будущем, а затем потребуется миллион лет, чтобы полностью реализоваться? Таким образом, хотя в одном смысле бремя и выгода постигнут одного и того же человека, в другом смысле соответствующие временные сегменты этого человека будут настолько далеки друг от друга, что это будет