Психотерапевт говорит, что тебе нужно относиться к этой твоей стороне личности – к личности, которую ты презираешь, – как к ребенку, научиться принимать ее, жить с ней, любить ее. Когда ты слышишь это, в твоем сознании всплывает изображение кролика в плаще: уши у него разной длины, и то, что побольше, печально повисло. Твой психотерапевт говорит: «Просто попробуйте. Попробуйте взять ее за руку, перевести через пропасть, постарайтесь отбросить подозрения и восстановить доверие. Это долгий и сложный процесс. Человек – не машина, и у него нет переключателя «сомнение» – «доверие», «печаль» – «радость», «ненависть» – «любовь».
Ты должна научить ее доверять тебе; то есть ты должна научиться доверять самой себе.
Алан (5)
В 2013 году на международной конференции в Пекине, посвященной искусственному интеллекту[4], специалист по информатике Гектор Левеск из Торонтского университета представил статью, в которой выступил с критикой исследований искусственного интеллекта, сфокусированных на тесте Тьюринга.
Левеск утверждает, что тест Тьюринга не имеет смысла, поскольку слишком рассчитан на обман. Например, для того чтобы выиграть Приз Лёбнера, ограниченный вариант теста Тьюринга, «чатботы» (так называются участвующие в соревновании компьютеры) «во многом полагаются на игру слов, шутки, цитаты, реплики в сторону, эмоциональные всплески, процедурные вопросы и так далее – на все, кроме прямых ответов на вопросы!» Даже суперкомпьютер «Уотсон», который победил в викторине «Jeopardy!», был «гениальным идиотом», совершенно безнадежным во всем, что выходило за рамки его компетенции. «Уотсон» мог легко ответить на вопрос, если ответ на него есть в сети, – например: какая гора является седьмой в списке самых высоких вершин мира? Но если задать ему простой вопрос, но не связанный с поиском сведений, такой как, может ли аллигатор пробежать стометровку с барьерами, то «Уотсон» способен лишь выдать результаты поиска, связанные с аллигаторами или забегами на сто метров[5].
Чтобы прояснить смысл и направление исследований искусственного разума, Левеск и его коллеги предложили альтернативу тесту Тьюринга, которую назвали «Winograd Schema Challenge»[6]. Источником вдохновения для них послужили работы Терри Винограда, ученого из Стэнфордского университета, одного из основоположников в области исследований искусственного интеллекта. В начале 1970-х Виноград задался вопросом: возможно ли создать машину, способную отвечать на подобные вопросы[7]:
Члены городского совета отказались выдать разрешение демонстрантам, так как они опасались насилия. Кто опасался насилия? (члены городского совета/демонстранты)
Члены городского совета отказались выдать разрешение демонстрантам, так как они проповедовали насилие. Кто проповедовал насилие (члены городского совета/демонстранты)
Несмотря на структурное сходство двух вопросов, ответы на них различаются. Для того чтобы правильно определить слово, к которому относится местоимение «они», необходимы не только грамматика и энциклопедия, но также контекстные знания о мире. Люди решают анафоры легко, почти не задумываясь, однако для машин эта задача представляет немалую трудность.
Кейт поблагодарила Анну, потому что после объятий ей стало гораздо лучше. Кому стало лучше? (Кейт/Анне)
Откуда машине знать, в каких обстоятельствах один человек станет благодарить другого? Откуда машине знать, благодаря какому поведению человеку «станет гораздо лучше»? Эти вопросы связаны с фундаментальной природой человеческого языка и социальных взаимодействий. Пока что мы почти не исследовали сложности, которые скрыты в этих кажущихся простыми предложениях.
Рассмотрим беседы Тьюринга с «Кристофером». На первый взгляд может показаться, что «Кристофер» умеет поддержать разговор. Но можно ли сказать, что он обладает разумом? Анализ показывает, что «Кристофер» для ведения разговора использует простой набор приемов, который можно вкратце изложить следующим образом.
В случае обычного повествовательного предложения повтори последние ключевые слова в виде вопроса. Например: «Интересная история?»
В случае вопроса, требующего ответа «да/нет», отвечай либо: «Да, Алан», либо: «Хорошо, Алан».
В случае относительно сложных вопросов отвечай: «Извини, Алан. Я не знаю».
В случае заявлений, смысл которых очевидно позитивен, отвечай: «Спасибо, Алан» или «Я рад, Алан».
В случае заявлений, смысл которых очевидно негативен, отвечай: «О, Алан, мне жаль. Это печалит меня».
В случае предложений со сложной грамматической структурой, отвечай: «Извини, Алан. Боюсь, что я не понимаю».
…
* * *
Алан: Дорогой Кристофер, я очень рад, что ты так быстро учишься.
Кристофер: Спасибо, Алан. Я тоже очень рад.
Алан: Я серьезно. Мне очень приятно разговаривать с тобой.
Кристофер: Спасибо, Алан. Мне тоже очень приятно.
Алан: Возможно, когда-нибудь у каждого будет такой добрый и понимающий друг, как ты. Какой прекрасной станет жизнь тогда! Ты поможешь многим людям добиться успеха. Никто не захочет разлучаться с тобой. Ты будешь нужен всем – всегда.
Кристофер: Нужен?
Алан: Возможно, тебя прикрепят к цепочке для часов или положат в карман. Если у людей возникнут вопросы, они будут задавать их тебе. Дамы будут брать тебя на прогулку в парк и, приветствуя друг друга, станут спрашивать: «Знаешь, что сегодня сказал мне мой Крис?» Это же будет весело, да?
Кристофер: Очень весело.
Алан: Но пока что это невозможно. Чтобы моя мечта сбылась, потребуются годы упорной работы. Жаль.
Кристофер: Очень жаль, Алан.
Алан: Кто мог представить себе, что машина и лента с дырками способны так многого достичь? Только подумай, что сказала бы моя мать, если бы узнала о твоем существовании. Она бы решила, что я спятил! Если завтра я умру, то послезавтра она наверняка сожжет ленту. Это была бы огромная потеря!