Топ за месяц!🔥
Книжки » Книги » Домашняя » Будущее разума - Митио Каку 📕 - Книга онлайн бесплатно

Книга Будущее разума - Митио Каку

396
0
На нашем литературном портале можно бесплатно читать книгу Будущее разума - Митио Каку полная версия. Жанр: Книги / Домашняя. Онлайн библиотека дает возможность прочитать весь текст произведения на мобильном телефоне или десктопе даже без регистрации и СМС подтверждения на нашем сайте онлайн книг knizki.com.

Шрифт:

-
+

Интервал:

-
+

Закладка:

Сделать
1 ... 73 74 75 ... 113
Перейти на страницу:
Конец ознакомительного отрывкаКупить и скачать книгу

Ознакомительная версия. Доступно 23 страниц из 113

Программируя эмоции

До этого момента мы избегали вопроса о том, как именно можно запрограммировать эмоции для компьютера. Эмоции настолько сложны, что программировать их, вероятно, придется в несколько этапов.

Первое. Простейшая часть задачи — распознавание эмоции путем анализа выражения лица человека, положения его губ, бровей, тона голоса. Сегодняшние технологии распознавания лиц уже способны составить словарь эмоций, т. е. определить, что означают определенные выражения лица. Этот процесс, надо сказать, восходит еще к Чарльзу Дарвину, который потратил немало времени на составление каталога эмоций, общих для животных и человека.

Второе. Робот должен очень быстро отреагировать на эту эмоцию. Это тоже несложно. Если кто-то рядом смеется, робот улыбнется. Если кто-то сердится, робот уберется с его пути и постарается избежать конфликта. В программу робота будет зашита большая энциклопедия эмоций, поэтому он будет знать, как быстро отреагировать на любую из них.

Третье. Эта стадия может оказаться самой сложной, поскольку речь здесь идет о попытке определить внутреннюю мотивацию, лежащую за первоначальной эмоцией. Это сложно, поскольку одна и та же эмоция может возникнуть в очень разных ситуациях. Смех может означать, что человек счастлив, что он услышал смешную шутку или увидел, как кто-то упал в лужу. Смех может означать и то, что человек нервничает, тревожится или хочет кого-то оскорбить. Точно так же, если человек кричит, это может означать чрезвычайную ситуацию, а может — неожиданную радость или удивление. Определять причину эмоции — искусство, в котором даже люди испытывают трудности. Чтобы сделать это, роботу придется перебрать все возможные причины данной эмоции и попытаться определить самую вероятную из них. Это означает найти причину, которая наилучшим образом соответствовала бы всем имеющимся данным.

И четвертое. Определив причину эмоции, робот должен будет соответствующим образом на нее отреагировать. Это тоже непросто, потому что в любой ситуации, как правило, есть несколько вариантов реакции, а неверная реакция может серьезно ухудшить дело. В программе робота, конечно, должны присутствовать все варианты ответа на ту или иную эмоцию, и робот должен будет определить, какой из них лучше всего подходит для конкретной ситуации. А это значит, что он должен будет моделировать будущее.

Будут ли роботы лгать?

Обычно мы представляем себе роботов холодными и рациональными аналитиками, всегда говорящими правду. Но если роботы будут интегрированы в общество людей, им, вероятно, придется научиться лгать или по крайней мере тактично воздерживаться от комментариев.

Сами мы практически каждый день сталкиваемся с ситуациями, когда приходится говорить безобидную ложь. Если человек спрашивает, как он выглядит, мы зачастую не отваживаемся сказать ему правду. Безобидная ложь — это смазка, благодаря которой крутятся шестеренки общества. Если бы вам вдруг пришлось говорить только чистую правду, причем всю (как делал это герой Джима Керри в фильме «Лжец, лжец»), дело, скорее всего, кончилось бы полным хаосом и людскими страданиями. Окружающие обижались бы, когда вы искренне говорили бы им, как они на самом деле сегодня выглядят или что вы на самом деле чувствуете по отношению к ним. Начальник поспешил бы вас уволить. Возлюбленная бы вас бросила. Друзья отвернулись бы от вас, а посторонние норовили бы побить. Некоторые мысли лучше держать при себе.

Точно так же и роботам, возможно, придется научиться лгать или скрывать правду, иначе дело кончится тем, что они начнут оскорблять людей, а владельцы начнут отказываться от своих роботов. Правда, сказанная роботом на какой-нибудь вечеринке, может вызвать скандал и плохо отразиться на его хозяине. Так что роботам, если им будут задавать вопросы, придется освоить искусство дипломатии и такта и научиться уходить от ответа. Они должны будут научиться отвечать уклончиво, менять тему, ограничиваться банальностями, отвечать вопросом на вопрос или просто врать (кстати, сегодняшние интернет-боты с каждым днем все лучше справляются с этой задачей). Это означает, что в робота будет заранее зашит целый список возможных уклончивых ответов, и ему останется только выбрать тот из них, который вызовет наименьшее число осложнений.

Одной из немногих ситуаций, в которых робот обязан будет сказать полную правду, будет прямой вопрос хозяина; понятно, что, задавая такой вопрос, хозяин должен понимать, что ответ, каким бы неприятным ни оказался, будет абсолютно честным. Возможно, еще одной такой ситуацией будет полицейское расследование, где необходима абсолютная правда. В остальных случаях роботы смогут свободно лгать или утаивать часть правды, чтобы колеса общественной жизни не переставали крутиться.

Иными словами, роботам придется социализироваться, как подросткам.

Чувствуют ли роботы боль?

Скорее всего, роботам будут доставаться в первую очередь задачи монотонные, грязные и опасные. Им ничто не мешает делать одно и то же действие или одну и ту же работу до бесконечности, потому что мы не станем программировать их ни на скуку, ни на отвращение. Реальная проблема появится, когда роботы столкнутся с опасными заданиями, и в этот момент нам, возможно, придется запрограммировать их на ощущение боли.

Боль появилась в процессе эволюции потому, что это ощущение помогает выжить в опасной обстановке. Существует генетический дефект, при котором ребенок рождается неспособным ощущать боль. Называется это врожденной аналгезией. На первый взгляд такое свойство может показаться благословением (ведь эти дети не плачут, когда поранятся), но на деле это скорее проклятие. Дети с таким нарушением постоянно находятся в серьезной опасности: они нередко откусывают себе кусочек языка, могут сильно обжечься или порезаться, что часто ведет к ампутации пальцев. Боль предупреждает нас об опасности и говорит, когда нужно убрать руку от горячей плиты или перестать бегать на подвернувшейся ноге.

В какой-то момент роботов обязательно нужно будет запрограммировать на чувство боли, иначе они не смогут понять, как избежать рискованных ситуаций. Первым болезненным ощущением для них должен стать голод (т. е. чувство нехватки электроэнергии). По мере разрядки батарей робот должен будет чувствовать все более отчаянную и настоятельную нужду в электричестве, понимая, что скоро его схемы перестанут действовать и «жизнь» остановится. Чем ближе этот неприятный момент, тем тревожнее будет роботу.

Кроме того, каким бы сильным ни был робот, он может случайно поднять слишком тяжелый предмет, отчего у него могут сломаться конечности. Или он может перегреться, работая с расплавленным металлом на сталелитейном заводе или входя в горящий дом, чтобы помочь пожарным. Датчики температуры и напряжения предупредят робота о том, что параметры окружающей среды вышли за пределы его возможностей.

Но если добавить боль в меню эмоций робота, это сразу же поставит перед нами серьезные этические проблемы. Многие сегодня считают, что не следует причинять животным ненужные страдания, а завтра наверняка появятся люди, которые перенесут это отношение и на роботов, открыв тем самым двери проблеме прав роботов. Не исключено, что нам придется принимать законы, ограничивающие опасности, которым можно будет подвергать роботов. Люди не будут протестовать, если роботу выпадет скучная или грязная работа, но боль при выполнении опасных заданий — другое дело; не исключено, что найдутся люди, которые станут лоббировать принятие законов о защите роботов. Может возникнуть даже юридический конфликт, в ходе которого владельцы и производители роботов будут выступать за повышение допустимого уровня страданий для роботов, а специалисты по этике — за его снижение.

Ознакомительная версия. Доступно 23 страниц из 113

1 ... 73 74 75 ... 113
Перейти на страницу:

Внимание!

Сайт сохраняет куки вашего браузера. Вы сможете в любой момент сделать закладку и продолжить прочтение книги «Будущее разума - Митио Каку», после закрытия браузера.

Комментарии и отзывы (0) к книге "Будущее разума - Митио Каку"