Топ за месяц!🔥
Книжки » Книги » Психология » Максимальный репост. Как соцсети заставляют нас верить фейковым новостям - Борислав Козловский 📕 - Книга онлайн бесплатно

Книга Максимальный репост. Как соцсети заставляют нас верить фейковым новостям - Борислав Козловский

228
0
На нашем литературном портале можно бесплатно читать книгу Максимальный репост. Как соцсети заставляют нас верить фейковым новостям - Борислав Козловский полная версия. Жанр: Книги / Психология. Онлайн библиотека дает возможность прочитать весь текст произведения на мобильном телефоне или десктопе даже без регистрации и СМС подтверждения на нашем сайте онлайн книг knizki.com.

Шрифт:

-
+

Интервал:

-
+

Закладка:

Сделать
1 ... 37 38
Перейти на страницу:
Конец ознакомительного отрывкаКупить и скачать книгу

Ознакомительная версия. Доступно 8 страниц из 38

А потом случился финансовый кризис 2008 года, одной из причин которого называли как раз работу «квантов» – прежде всего, модели, которые слишком оптимистично оценивали риск, что кто-нибудь не расплатится с долгами. В следующем году жюри конкурса World Press Photo объявило «фотографией года» черно-белый снимок фотожурналиста Энтони Сво: полицейский с пистолетом осматривает дом, откуда только что выставили семью, не справившуюся со своими ипотечными платежами.

Обнаружив, что ее работа с числами привела к появлению новых бездомных, О’Нил уволилась из хедж-фонда и села писать книгу «Оружие математического поражения» – про то, как алгоритмы из лучших соображений портят людям жизнь. Книга вышла в 2016-м и сразу попала в длинный список Национальной книжной премии США{101}.

Кто будет сомневаться в пользе алгоритма, который помогает предотвращать преступления? У полиции есть многолетняя статистика убийств, грабежей и наркоторговли – а нейросеть на основе этой статистики решает, когда и в какие районы города стоит перебросить больше полицейских патрулей. Анализ данных доказывает, что прогнозы программы сбываются: в проблемных районах, на которые указал искусственный интеллект, в итоге действительно ловят больше нарушителей.

Что здесь не так? К примеру, часто такие алгоритмы ведут себя как расисты. Ясно, что расу потенциальных преступников в США никто не станет использовать как явный фактор математической модели, но алгоритмы настойчиво ведут полицейских в «черные» кварталы. Кэти О’Нил предлагает представить себе патруль, который выехал на дежурство и третий час кружит по району. Если ему попадется подросток с пивом, спрятанным в бумажном пакете, – его, скорее всего, задержат (хотя никакая патрульная машина не выехала бы специально по вызову «мы подозреваем, что тут подросток на улице пьет пиво»). В сводке о правонарушениях появится новая запись, и алгоритм будет иметь больше оснований считать район криминогенным. В таких районах будет больше арестов за преступления без жертв (такие как распитие пива на улице или марихуана в кармане). Для самих же правонарушителей, у которых в личном деле появляются записи об аресте, перспективы найти работу и зажить спокойной благополучной жизнью падают, а шансы стать преступниками в условиях сузившегося выбора, наоборот, возрастают. Потому что для окружающих они теперь подростки, у которых проблемы с полицией. У их белых сверстников, которые точно так же пьют пиво, спрятанное в бумажные пакеты, или курят марихуану в благополучном, по мнению алгоритма, районе, риск быть задержанными намного ниже. Физики называют такой эффект «петлей положительной обратной связи», а социологии – «самосбывающимися прогнозами».

Математическим моделям доверяют оценивать людей, не только когда речь идет о преступлениях. Их используют банки для оценки вашей платежеспособности, университеты при отборе абитуриентов и американское министерство образования при анализе работы учителей.

И если алгоритмы приемной комиссии Гарварда отбракуют 5 % соискателей, которые на самом деле заслуживают там учиться, нет простого механизма обратной связи, который мгновенно продемонстрирует этому университету, каких гениев он упустил.

Во всех этих случаях способов понять, что модель систематически промахивается, рассуждает О’Нил, нет – и пока система, работающая на основе машинных прогнозов, в целом справляется, нет поводов менять алгоритмы. Особенно пока (и если) компания, которая использует алгоритмы, воспринимает термин «искусственный интеллект» всерьез. Это тот случай, когда выбор слов определяет отношение к технологии. «Алгоритмы» и «машинное обучение» – просто способы превращать одни цифры в другие, таких способов может быть много, и алгоритмы естественно улучшать. А вот «искусственный интеллект» обозначает какую-то загадочную разумную силу, про которую естественно думать, что она заведомо разбирается в предмете лучше нас. Чем дальше заказчики математических моделей от математики – тем естественней ждать, что они будут относиться к каким-нибудь решающим деревьям именно так, с благоговением, а ставить под сомнение их рекомендации не будут.

Без алгоритмов машинного обучения все эти проблемы исчезнут. Но только потому, что не станет ни сайтов знакомств, ни соцсетей, ни рекомендательных сервисов, которые, не исключено, показали вам эту книгу.

Краткое содержание главы 10

1. По анкетным данным пассажира «Титаника» – пол, возраст, класс каюты, сколько стоил билет, сколько членов семьи было с ним на борту – можно с 80 %-ной точностью предсказать, выжил он или погиб при кораблекрушении.

2. Машинное обучение – это способ свести задачу про «Титаник» или вопрос, показывать ли вам запись друга в ленте Facebook, к универсальной математической процедуре. На входе – характеристики пассажира или записи в цифрах, на выходе – односложный ответ: «выживет – не выживет», «показывать – не показывать».

3. Нейросети – самый модный, но не единственный и даже не самый популярный на практике пример таких алгоритмов. У каждого семейства таких алгоритмов свои недостатки, которые мешают им правильно реагировать, например, на иронию или скрытые цитаты – и Facebook без повода блокирует вас на неделю.

4. Чтобы алгоритмы хорошо обучались, им необходим «режим исследования», когда искусственный интеллект дает пользователю случайные или даже вредные советы. Сайт знакомств OkCupid признался, что в этом режиме намеренно предлагал людям неподходящих партнеров.

5. Есть риск, что соцсеть определит вас в небольшую «контрольную группу» пользователей, которая получает неудачные рекомендации (или видит френдленту без самых важных записей друзей) из раза в раз.

6. Эффект под названием «петля положительной обратной связи» ухудшает реальную жизнь, когда машинное обучение берут на вооружение чиновники. Например, у американских подростков, которых алгоритм маркирует как неблагополучных, вырастает шанс стать преступниками.

7. И именно такие, несовершенные, алгоритмы – то, без чего все привычные нам способы отличить правду от неправды, найти единомышленников и поделиться этим знанием с ними перестанут работать.

Ознакомительная версия. Доступно 8 страниц из 38

1 ... 37 38
Перейти на страницу:

Внимание!

Сайт сохраняет куки вашего браузера. Вы сможете в любой момент сделать закладку и продолжить прочтение книги «Максимальный репост. Как соцсети заставляют нас верить фейковым новостям - Борислав Козловский», после закрытия браузера.

Комментарии и отзывы (0) к книге "Максимальный репост. Как соцсети заставляют нас верить фейковым новостям - Борислав Козловский"