Ознакомительная версия. Доступно 18 страниц из 86
id="id107">
20
Кант называл этот процесс «подведением» под общее понятие.
21
ami.withgoogle.com
22
Книга Кёнига вышла на французском в 2018 году. За последние пять лет нейросети, генерирующие картинки, далеко шагнули вперед – и способны уже на создание фотореалистических изображений (см. результаты работы таких алгоритмов, как Stable Diffusion, DALL-E 2, Midjourney и других). – Прим. ред.
23
НЛП, или нейролингвистическое программирование (NLP, или Natural Language Processing) – «обработка естественного языка», весьма активная область исследований в ИИ, в которой компьютер обучают манипуляциям с языком. Помимо диалога, техники NLP включают резюмирование, перевод, извлечение информации, составление текста, ответы на вопросы и т. д.
24
Чат-бот – это «разговорный агент», способный имитировать собеседника-человека (на письме или в устной речи). Особенно часто чат-боты встречаются на линиях поддержки. Вряд ли можно найти человека, которому не довелось бы прийти в бешенство в разговоре с телефонным чат-ботом, который упорно отказывается понимать все тонкости нашей ситуации.
25
Платон. Софист / пер. С. Ананьина // Платон. Собр. соч. в 4‐х т. Т. 2. М.: Мысль, 1993. – Прим. ред.
26
Searle J. Minds, Brains, and Programs // Behavioral and Brain Sciences. 1980. Vol. 3. № 3.
27
Каспаров Г. Человек и компьютер: взгляд в будущее. М.: Альпина Паблишер, 2018.
28
Poe E. Maelzel’s Chess Player // The Southern Literary Messenger. 1836. Vol. 2. № 5.
29
См.: Hofstadter D. Fluid Concepts and Creative Analogies: Computer Models of the Fundamental Mechanisms of Thought. Basic Books, 1995, особенно главу 4, где описывается «Элиза», один из первых чат-ботов.
30
Этот аргумент был развит Майком Элганом, исследователем с факультета технологии Университета Миссури.
31
Sharkey N. The Evitability of Autonomous Robot Warfare // International Review of the Red Cross. 2012. Vol. 94. № 886.
32
Хокинг, знаменитый космолог, в ноябре 2017 года на «Веб-саммите» в Лиссабоне заявил, что ИИ может стать «худшим событием в истории нашей цивилизации». Впоследствии в многочисленных интервью и статьях он не раз заявлял о неминуемости этой угрозы.
33
Исследователи в MIT создали 3D-имитацию черепахи, которую легко узнаёт человеческий глаз, но в случае малозаметных «возмущений» (таких как изменение узора, цвета и т. п.) ИИ путал эту черепаху… с ружьем!
34
Russell S., Norvig P. Artificial Intelligence: A Modern Approach [1995]. 2009.
35
Подобная гипотеза была ярко описана Максом Тегмарком во введении к его книге «Жизнь 3.0» (Tegmark M. Life 3.0. Penguin Books, 2018, см. введение «Рассказ о команде Омега»).
36
Harris M. Inside the First Church of Artificial Intelligence // Wired. 2017. Nov. 15. URL: https://www.wired.com/story/anthony-levandowski-artificialintelligence-religion/
37
Это маловероятно: ученым пока еще не удалось произвести полную копию мозга даже маленького червя Caenorhabditis elegans, в котором насчитывается лишь 302 нейрона…
38
Этот аргумент Гари Маркуса, профессора психологии из Нью-Йоркского университета и специалиста по ИИ, см., например, в его статье: Marcus G. Artificial Intelligence Is Stuck // The New York Times. 2017. July 29.
39
Это так называемое recursive self improvement, «рекурсивное самоулучшение».
40
В математике синглетон – это множество, состоящее из единственного элемента. В этом случае автор подразумевает то, что также можно назвать «абсолютом». – Прим. ред.
41
Это так называемая symbol grounding problem, «проблема обоснования символов»: ИИ не может закрепить символы, постоянно производимые им, в соответствующей реальности. Как и в эксперименте с «китайской комнатой», он сталкивается с неспособностью произвести смысл.
42
Бостром называет это «извращенным исполнением», тогда как философы ИИ описывают эту проблему в целом термином «упорядочивание целей».
43
Это так называемая moral rightness model.
44
Особенно в этом захватывающем дух пассаже: «Можно предположить, что медлительность и нерешительность прогресса человечества в деле решения многих „вечных проблем“ философии обусловлена непригодностью коры головного мозга человека для философской работы» (sic!).
45
Тегмарк доводит эту иллюзию до конца, предлагая понятие «substrate independence», «независимость от субстрата»: наше сознание, получается, является простым устройством, сетью, независимой от всякого материального субстрата, а потому может воспроизводиться в бесконечном числе форм.
46
См., например: Jirak D. et al. Grasping Language – A Short Story on Embodiment // Consciousness and Cognition. 2010. Vol. 19. № 3.
47
См. особенно его последнюю работу: Damasio A. L’Ordre étrange des choses. Odile Jacob, 2017.
48
Damasio A. Spinoza avait raison. Odile Jacob, 2014.
49
Спиноза Б. Этика. Часть 2. Теорема 7. Схолия // Его же. Сочинения в 2‐х т. СПб.: Наука, 1997. Т. 1. С. 294.
50
См. основополагающую статью по этому вопросу: Bonnefon J.-F., Shariff A., Rahwan I. The Social Dilemma of Autonomous Vehicles // Science. 2016. Vol. 352. № 6293.
51
В духе старой «проблемы вагонетки», сформулированной Филиппой Фут в 1960‐х годах.
52
Это знаменитая «сложная проблема сознания», поставленная философом Дэвидом Чалмерсом, для которой пока не найдено общего решения.
53
Спиноза Б. Этика. Часть 2. Теорема 27 // Собрание сочинений в 2‐х т. Т. 1. С. 311.
54
Kurzweil R. How to Create a Mind. Viking, 2012.
55
Здесь я воспроизвожу делёзовскую интерпретацию, представленную, в частности, в его работе «Спиноза: практическая философия».
56
Спиноза Б. Этика. Часть 3. Теорема 2. С. 339.
57
См.: Hoffmann M., Pfeifer R. The Implications of Embodiment for Behavior and Cognition: Animal and Robotic Case Studies // Implications of Embodiment / ed. by W. Tschacher, C. Bergomi. Imprint Academic, 2012.
58
URL: https://www.ibmbigdatahub.com/blog/embodied-cognitionfuture-ai.
59
Делёз Ж. Логика смысла. Серия 12. «О парадоксе».
60
Эта встреча основана на «Рассуждении о методе», «Трактате о человеке» и «Страстях души».
Ознакомительная версия. Доступно 18 страниц из 86