Машина, платформа, толпа. Наше цифровое будущее
Шрифт:
В социальных науках не ведутся споры о том, что именно показывает настолько масштабный корпус появившихся недавно качественно разнообразных исследований, ведущихся в едином направлении, одним из которых является это [сравнение статистического и клинического прогнозов]. Когда у вас больше ста работ, прогнозирующих всё – от результатов футбольных матчей до диагностики заболеваний печени, – и при этом вы с трудом можете наскрести полдюжины исследований, где есть хотя бы слабый уклон в пользу клинического прогноза, самое время сделать некий практический вывод [115] .
115
Paul E. Meehl, “Causes and Effects of My Disturbing Little Book,” Journal of Personality Assessment 50, no. 3 (1986): 370–75, http://www.tandfonline.com/doi/abs/10.1207/s15327752jpa5003_6.
Мы
Все больше и больше американских компаний приходят к тому же заключению. Работая с Бюро переписи населения США, Эрик и Кристина Макэлерен (сейчас профессор Университета Торонто) при изучении репрезентативной выборки из 18 тысяч заводов установили, что переход к принятию решений на основе данных значительно ускорился. Катализатором этого стало активное применение информационных технологий и значительное улучшение работы компаний, принявших такой подход [116] .
116
Erik Brynjolfsson and Kristina McElheran, “Data in Action: Data-Driven Decision Making in US Manufacturing,” 2016,ранняя работа, где использовалась меньшая выборка, дала сходные результаты: Erik Brynjolfsson, Lorin M. Hitt, and Heekyung Hellen Kim, “Strength in Numbers: How Does Data-Driven Decision making Affect Firm Performance?” 2011, https://papers.ssrn.com/sol3/papers2.cfm?abstract_id=1819486.
Несмотря на убедительные примеры, нам стоит перестать петь дифирамбы алгоритмам и сделать несколько важных оговорок. Прежде всего, чтобы сравнивать человеческое суждение с его математической моделью, нужно иметь такую модель. Согласно парадоксу Полани, это не всегда возможно. Модели нужно тестировать и оттачивать на многочисленных сходных примерах, поскольку каждая из них описывает только какое-то подмножество решений, которые могут принимать люди. Впрочем, общая идея ясна и подтверждается раз за разом: если грамотно создать и испытать модель, то в целом она будет работать так же хорошо, как эксперты, принимающие аналогичные решения (или даже лучше). Тем не менее мы продолжаем опираться на человеческие суждения там, где лучше справляются машины.
Человеческий ум: гениальный, но склонный к ошибкам
Как может компьютер, опирающийся только на Систему 2, то есть на вычисления, производимые с числовыми данными, быть явно лучше, чем человек, который пользуется Системой 2 и Системой 1 – глубинными, врожденными, инстинктивно используемыми возможностями мышления, которые есть у всех нас? В конце концов, Система 1 работает довольно давно, она помогла нам выжить и благополучно провела через все препятствия эволюции (ведь мы все еще существуем, и нас уже 7,5 миллиарда [117] ). Как она могла нас так подвести?!
117
Worldometers, “Current World Population,” по состоянию на 26 февраля 2017 года, http://www.worldometers.info/world-population.
Это слишком большой вопрос для одной книги, тем более для одной главы. Но в своей работе «Думай медленно… решай быстро» Канеман дал краткую сводку множества исследований (многие из которых провел сам):
Поскольку Система 1 работает автоматически и не может быть отключена по желанию, ошибки интуитивного мышления трудно предотвратить. Предубеждений не всегда можно избежать, поскольку Система 2 может просто не знать об ошибке [118] .
Если говорить коротко, то Система 1 очень хороша, но склонна к ошибкам. Она часто срезает углы, не любит долгих размышлений и удивительно часто сбивается. Исследователи, работавшие в области экономической психологии и поведенческой экономики (дисциплины, которую помогал создавать Канеман), выявили большое количество искажений Системы 1 и даже дали им названия. Полный их список навел бы на вас скуку и вогнал в депрессию; в посвященной этой теме книге Рольфа Добелли «Территория заблуждений» [119] 99 глав, а в «Списке когнитивных искажений» [120] в «Википедии» было 175 пунктов, когда мы заглядывали туда в последний раз. Бастер Бенсон, менеджер по продукции софтверной компании Slack, придумал, по нашему мнению, прекрасный способ сгруппировать
118
Kahneman, Thinking, Fast and Slow, p. 28.
119
Добелли Р. Территория заблуждений. Какие ошибки совершают умные люди. М.: Манн, Иванов и Фербер, 2014. Прим. ред.
120
См. соответствующие статьи (на английском и русском языке соответственно):https://ru.wikipedia.org/wiki/Список_когнитивных_искажений. Прим. перев.
121
Бенсон пришел к этой категоризации после изучения списка когнитивных искажений «Википедии» во время отпуска по уходу за ребенком. Он опубликовал свои мысли в блоге практических подсказок Better Humans . Это прекрасный пример идеи, рожденной сетевой толпой, феномен которой мы детально обсудим в части III этой книги.
1. Информационная перегрузка – паршивая вещь, потому мы интенсивно фильтруем входящий поток… [Однако] часть отсеиваемой информации на самом деле полезна и важна.
2. Не понимая чего-нибудь до конца, мы путаемся, поэтому нам свойственно заполнять пробелы в знаниях… [Однако] в ходе этого возникают иллюзии. Иногда мы принимаем за истину додуманные нами подробности и конструируем концепции и истории, которых на самом деле не было [122] .
3. [Нам] нужно действовать быстро, чтобы не упустить свой шанс, так что мы всегда спешим с выводами… [Однако] это может иметь неприятные последствия. Некоторые из наших мгновенных реакций и принятых второпях решений оказываются вредными, эгоистичными и контрпродуктивными.
122
Для этого процесса есть затейливое название «апофения» (термин образован от греческого слова, которое можно перевести как «делать явным»; он означает способность человека видеть взаимосвязи, структуру и смысл в случайных данных. Прим. перев.). Модели в статистике и машинном обучении иногда допускают ту же самую ошибку, обычно называемую переподгонкой.
4. Запутавшись, мы пытаемся восстановить в уме важные детали… [Однако] память подкрепляет ошибки. Некоторые из вещей, что впоследствии мы считаем истинными, на самом деле лишь усугубляют вышеназванные проблемы, в результате чего нашим мыслительным процессам наносится больший вред [123] .
Мы хотим обратить внимание на еще одну серьезную проблему когнитивных способностей человека: мы не в силах точно узнать, когда Система 1 работает хорошо, а когда нет. Другими словами, у нас слабое представление о собственной интуиции. Мы не знаем, правильно наше мгновенное решение или вынесенное суждение или оно подверглось воздействию одного или нескольких искажений. В этом видится странная параллель с парадоксом Полани: мы также знаем меньше, чем способны сказать, в данном случае меньше о результатах работы Системы 1. Вычисления и рассуждения Системы 2 чаще всего можно проверить, но, как указывает Канеман, Систему 1 проверить сложнее, тем более самостоятельно.
123
Buster Benson, “Cognitive Bias Cheat Sheet,” Better Humans, September 1, 2016, https://betterhumans.coach.me/cognitive-bias-cheat-sheet-55a472476b18#.qtwg334q8.
Недавние исследования выявили один особо коварный сбой, связанный с парадоксом Полани: часто Система 1 выдает заключение, а затем просит Систему 2 объяснить его. Психолог Джонатан Хайдт утверждает: «Суждение и обоснование – это два разных процесса» [124]
124
Jonathan Haidt, “Moral Psychology and the Law: How Intuitions Drive Reasoning, Judgment, and the Search for Evidence,” Alabama Law Review 64, no. 4 (2013): 867–80, https://www.law.ua.edu/pubs/lrarticles/Volume%2064/Issue%204/4%20Haidt%20867-880.pdf.
Конец ознакомительного фрагмента.