Думай «почему?». Причина и следствие как ключ к мышлению - Джудиа Перл
Шрифт:
Интервал:
Закладка:
В книге «Направление времени», опубликованной посмертно в 1956 году, философ Ханс Райхенбах высказал смелую гипотезу, названную принципом общего дела. Опровергая утверждение «Корреляция не подразумевает причинно-следственной связи», Райхенбах выдвинул далеко идущую идею: «Нет корреляции без причинно-следственной связи». Он имел в виду, что корреляция между двумя переменными, X и Y, не может возникнуть случайно. Либо одна из переменных вызывает другую, либо третья переменная, например Z, предшествует и вызывает их обе.
Наш простой эксперимент с подбрасыванием монеты доказывает, что утверждение Райхенбаха пошло слишком далеко, потому что в нем не учитывается процесс отбора наблюдений. У результата для двух монет не было общей причины, и ни одна не сообщала другой, что получилось у нее. Тем не менее между результатами в нашем списке возникла корреляция. Ошибка Райхенбаха заключалась в том, что он не учел структуру коллайдера, на основе которой отбирались данные. Ошибка оказалась особенно показательной, потому что она указывает на конкретный изъян в принципах работы нашего мозга. Мы живем так, как если бы принцип общей причины соблюдался. Когда мы видим такие закономерности, мы ищем причинное объяснение. Более того, мы жаждем объяснений, которые показали бы нам стабильные механизмы за рамками данных. Больше всего нам подходит объяснение через прямую причинность: X вызывает Y. Когда оно не подходит, обычно нас удовлетворяет общая причина для X и Y. Коллайдеры слишком призрачны, чтобы удовлетворить эти причинные аппетиты. Мы все еще хотим узнать механизм, как две монеты координируют свое поведение. Ответ вызывает у нас полное разочарование: они вообще не общаются.
Наблюдаемая нами корреляция — иллюзия в чистейшем и буквальнейшем смысле. Или даже заблуждение, т. е. иллюзия, которую мы сами вызвали у себя, выбирая, какие события включить в отобранные данные, а какие проигнорировать. Важно понимать, что мы не всегда осознаем, что сделали этот выбор, и поэтому часто попадаем в ловушку, созданную ошибкой коллайдера. В эксперименте с двумя монетами выбор был осознанным: я просил не записывать результаты с двумя решками. Но во многих случаях мы не осознаем, что делаем выбор, или же выбор делается за нас. В парадоксе Монти Холла ведущий открывает нам дверь. В парадоксе Берксона неосторожный исследователь берет госпитализированных пациентов из соображений удобства, не осознавая, что таким образом искажает результаты исследования.
Искажающая призма коллайдера не менее распространена в повседневной жизни. Джордан Элленберг в книге «Как никогда не ошибаться» спрашивает: вы когда-нибудь замечали, что среди людей, с которыми вы встречались, привлекательные часто оказывались неприятными личностями? Вместо того чтобы строить сложные психосоциальные теории, рассмотрите простое объяснение. Ваш выбор партнеров все это время зависел от двух факторов: их привлекательности и личных качеств. Вы были готовы завязать отношения с неприятным, но привлекательным человеком или с приятным, но непривлекательным, и, конечно, с приятным и привлекательным. Но только не с неприятным и непривлекательным! То же явление мы наблюдали в примере с двумя монетами, когда вы подвергали цензуре результаты «орел или решка». Это явление создает ложную отрицательную корреляцию между привлекательностью и личностью. Но печальная правда заключается в том, что непривлекательные люди бывают неприятными так же часто, как привлекательные, однако вы никогда этого не узнаете, потому что никогда не станете встречаться с плохим и некрасивым человеком.
Парадокс Симпсона
Теперь, когда мы показали, что телепродюсеры не обладают навыками телепатии и монеты не могут общаться друг с другом, мы можем развенчать еще несколько мифов. Давайте начнем с мифа о «плохом / плохом / хорошем» лекарстве.
Представим себе доктора (назовем его «доктор Симпсон»), который сидит в кабинете и читает о многообещающем новом препарате (лекарстве D), который вроде бы сокращает риск сердечного приступа. С радостным предвкушением он изучает данные исследователей в Интернете. Однако радость убавляется, когда он смотрит на данные о пациентах-мужчинах и замечает, что, если они принимают препарат, риск получить сердечный приступ, вообще-то, повышается. «Ага, — говорит он, — вероятно, лекарство D очень эффективно для женщин».
Но потом он переходит к следующей таблице, и разочарование сменяется изумлением. «Что это? — восклицает доктор Симпсон. — Тут значится, что у женщин, которые принимали лекарство D, тоже повысился риск сердечного приступа. Кажется, у меня едет крыша! Получается, лекарство вредно для женщин и вредно для мужчин, но полезно людям в целом».
Вы тоже пришли в недоумение? Если так, вы в хорошей компании. Этот парадокс, который впервые описал реальный статистик по имени Эдвард Симпсон в 1951 году, не давал покоя ученым более 60 лет и продолжает тревожить их до сих пор. Даже в 2016 году, когда я писал эту книгу, вышло четыре новые работы (включая диссертацию), в которых парадокс Симпсона пытались объяснить с четырех разных точек зрения.
В 1983 году Мелвин Новик написал: «Напрашивается вот такой ответ: если мы знаем, что пациент — мужчина или что пациент — женщина, нам не стоит использовать этот препарат. Но если пол неизвестен, препарат лучше использовать! Очевидно, что подобный вывод смехотворен». Я полностью согласен. Считать, что лекарство вредно для мужчин и вредно для женщин, но при этом полезно для людей, было бы действительно смехотворно. Итак, одно из этих трех утверждений должно быть неверным. Но какое? И почему? И как вообще возможна эта путаница?
Чтобы ответить на эти вопросы, нам, конечно, нужно взглянуть на (вымышленные) данные, которые так сильно озадачили нашего доктора Симпсона. Исследование было наблюдательным, а не рандомизированным, с участием 60 мужчин и 60 женщин. Это означает, что пациенты сами решали, принимать препарат или нет. В табл. 8 показано, сколько представителей каждого пола получали препарат D и у скольких впоследствии был диагностирован сердечный приступ.
Позвольте мне подчеркнуть,