Битва при черной дыре. Мое сражение со Стивеном Хокингом за мир, безопасный для квантовой механики - Леонард Сасскинд
Шрифт:
Интервал:
Закладка:
Если представить себе все возможные способы, которыми можно собрать атомы, то подавляющее большинство вариантов будут выглядеть как ржавые кучи. И гораздо меньшее число будет напоминать автомобиль. И даже среди последних, заглянув внутрь, вы, скорее всего, обнаружите ржавую кучу. Работающий автомобиль получится в исчезающе малом числе вариантов. Энтропия автомобиля и энтропия ржавой кучи как-то связаны с числом вариантов, которые будут восприниматься как автомобиль и как ржавая куча соответственно. Если перемешать атомы автомобиля, вы с гораздо большей вероятностью получите кучу ржавчины, потому что такая куча реализуется намного большим числом вариантов, чем автомобиль.
А вот другой пример. Обезьяна, стучащая по клавишам пишущей машинки, будет почти всегда печатать абракадабру. Очень редко ей удастся построить грамматически правильное предложение вроде такого: «Я хочу рассудить мою гипотенузу с помощью точки с запятой». Еще реже у нее будет получаться осмысленная фраза вроде: «У короля Кнуда[61] была бородавка на подбородке». А еще, если взять буквы осмысленного предложения, перемешать их и выложить друг за другом, как в игре «Эрудит», результат почти наверняка окажется абракадаброй. Причина? Существует гораздо больше бессмысленных последовательностей из двадцати или тридцати букв, чем тех, которые имеют смысл.
Английский алфавит содержит двадцать шесть букв, но есть и более простые системы письменности. Азбука Морзе — очень простая система, использующая всего два символа: точку и тире. Строго говоря, в ней три символа — точка, тире и пробел, — но всегда можно заменить пробел специальной последовательностью точек и тире, которая в других случаях вряд ли встретится. Если игнорировать пробелы, на описание короля Кнуда и его бородавки азбукой Морзе уходит в целом 110 знаков[62]:
Сколько различных сообщений азбукой Морзе можно составить из 110 точек и/или тире? Всё, что нужно, — это перемножить 110 двоек и получить 2110, что составляет примерно миллион миллиардов миллиардов миллиардов.
Когда информация кодируется с помощью двух символов — это могут быть точки и тире, единицы и нули или любые другие пары, — такие символы называются битами. Таким образом, в кодировке Морзе фраза «У короля Кнуда была бородавка на подбородке» представляет собой 110-битное сообщение. Если вы собираетесь читать эту книгу дальше, то было бы неплохо запомнить определение технического термина бит. Его значение отличается от того, что использовано во фразе: «За это он не раз бывал бит». Бит — это отдельная минимальная единица информации, подобно точкам или тире в азбуке Морзе.
Зачем нам эти трудности с переводом информации в точки и тире, нули и единицы? Почему не использовать последовательность 0, 1, 2, 3,4, 5, 6, 7, 8, 9, а еще лучше буквы алфавита? Сообщения было бы проще читать, и они занимали бы гораздо меньше места.
Суть в том, что буквы алфавита (как и десять обычных цифр) — это человеческое изобретение, которые мы обучаемся распознавать и хранить в памяти. Но каждая буква или цифра несет сразу много информации за счет весьма тонкой разницы между буквами А и Б или цифрами 5 и 8. Телеграфисты и компьютерщики, которые полагаются только на простейшие математические правила, предпочитают — на самом деле они просто вынуждены — использовать двоичный код из точек и тире или нулей и единиц. Между прочим, когда Карл Саган разрабатывал систему для отправки сообщений негуманоидным цивилизациям, живущим в далеких планетных системах, он использовал двоичный код.
Вернемся к королю Кнуду. Сколько из 110-битных сообщений будут связными? На самом деле я не знаю, возможно, несколько миллиардов. Но все равно это — чрезвычайно малая доля от 2110. Так что почти наверняка если вы возьмете 110 битов или 37 букв фразы «У короля Кнуда была бородавка на подбородке» и перемешаете их, результатом будет абракадабра. Вот что я получил, когда проделал это с фишками «Эрудита» (выкинув пробелы):
ОРКЫУРООЛО ДАДВЛБОНБРЕ ДКБКАУАОЯНАОКДПА
Допустим, вы перемешивали буквы совсем недолго. Сообщение лишь слегка утратит связность. «У кролоя Кнуда была бородавка а подбородкен». Но постепенно буквы будут превращаться во все менее осмысленную мешанину. Бессмысленных комбинаций так много, что сползание к абракадабре неизбежно.
Теперь я могу дать определение энтропии. Энтропия — это мера числа вариантов, которые соответствуют некоему конкретному распознаваемому критерию. Если критерий состоит в наличии 110 битов, тогда число вариантов составляет 2110.
Но энтропия — это не само число вариантов, в данном случае — не 2110. Она равна просто 110—числу раз, сколько надо помножить на себя двойку, чтобы получить количество вариантов. В математике количество перемножений двойки на себя, необходимое для получения определенного числа, называют логарифмом[63]. Так, 110 — это логарифм 2110. Энтропия, таким образом, — это логарифм числа вариантов.
Из 2110 возможностей лишь очень небольшая доля представляет собой осмысленные фразы. Допустим, что их миллиард. Чтобы получить миллиард, надо возвести двойку в 30-ю степень. Иными словами, миллиард — это около 230, или, что эквивалентно, логарифм миллиарда равен 30. Отсюда следует, что энтропия осмысленного предложения всего лишь около 30, что намного меньше 110. Бессмысленные цепочки символов, очевидно, имеют большую энтропию, чем комбинации, составляющие осмысленные фразы. Неудивительно, что энтропия возрастает, когда буквы перемешиваются.
Предположим, компания BMW подняла управление качеством до такого уровня, что все автомобили, сходящие с конвейера, абсолютно идентичны. Иными словами, допустим, что существует одна, и только одна комбинация атомов, которая может считаться истинным BMW. Какова будет ее энтропия? Ответ — ноль. Когда такой BMW сходит с конвейера, в нем не будет никакой неопределенности. Когда задан единственный уникальный вариант, энтропии вообще нет.
Второе начало термодинамики, которое говорит, что энтропия возрастает, это просто утверждение, что с течением времени мы теряем контроль за деталями. Представьте, что мы уронили крохотную каплю черных чернил в ванну с теплой водой. Вначале мы точно знаем, где находятся чернила. Число возможных конфигураций чернил не так велико. Но по мере того как мы следим за диффузией чернил в воде, мы все меньше и меньше знаем о местоположении отдельных молекул чернил. Число вариантов, отвечающих тому, что мы видим, а именно в ванне с однородной, слегка посеревшей водой, становится колоссальным. Можно ждать и ждать, но мы не увидим, как чернила вновь соберутся в концентрированную каплю. Энтропия возрастает. Это второе начало термодинамики. Все стремится к скучной однородности.
Вот еще один пример — ванна, полная горячей воды. Как много мы знаем о воде в ванне? Предположим, что она налита в ванну достаточно давно и все заметные течения прекратились. Можно измерить количество воды в ванне (190 литров) и ее температуру (32 градуса Цельсия). Но ванна заполнена молекулами вводы, и, очевидно, очень большое число вариантов размещения молекул соответствует заданным условиям —190 литров воды при 32 градусах Цельсия. Мы сможем узнать намного больше, только если точно обмерим каждый атом.
Энтропия — это мера того, сколь много информации скрыто в деталях, которые по той или иной причине трудно наблюдать. Таким образом, энтропия — это скрытая информация. В большинстве случаев информация бывает скрыта, потому что касается вещей слишком малых, чтобы их увидеть, и слишком многочисленных, чтобы за ними уследить. В случае с водой в ванне это микроскопические подробности, касающиеся молекул воды: положение и движение каждой из миллиардов миллиардов миллиардов молекул воды в ванне.
Что случится с энтропией, если вода охладится до температуры абсолютного нуля? Если отвести от воды всю без исключения энергию, молекулы сами соберутся в уникальную структуру — решетку, которая образует идеальный кристалл льда.
Кристаллическая решетка
И хотя молекулы слишком малы, чтобы их видеть, если вы знакомы со свойствами кристаллов, то сможете предсказать положение каждой молекулы. Идеальный кристалл, подобно идеальному BMW, вообще не имеет энтропии.
Сколько битов можно хранить в библиотеке?Неоднозначности и тонкие нюансы в использовании языка часто бывают очень важны. Фактически, если бы слова имели идеально точные значения, которые можно заложить в компьютер, язык и литература сильно обеднели бы. Однако научная точность требует высокой степени лингвистической строгости. Слово «информация» означает много разных вещей: «Я думаю, ваша информация ошибочна». «Для информации: у Марса два спутника». «У меня диплом по теории информации». «Вы можете найти эту информацию в Библиотеке Конгресса». В каждом из этих предложений слово «информация» используется по-своему. Только в последнем примере имеет смысл вопрос: «Где находится информация?»