Наука Плоского мира. Книга 2. Глобус - Терри Пратчетт
Шрифт:
Интервал:
Закладка:
Мы гордимся тем, что живем в информационный век. И это плохо. Если мы когда-нибудь доживем до века смыслового, но сумеем наконец понять, в каком месте сбились с пути.
Информация – это не материальная вещь, а понятие. Однако из-за людской привычки материализовывать понятия ученые воспринимают информацию, будто она и в самом деле реальна. Некоторые физики даже начинают задумываться, не состоит ли наша вселенная из информации?
Как же возникла эта точка зрения и насколько справедливой ее можно считать?
Человечество приобрело способность измерять информацию в 1948 году, когда математик и инженер Клод Шеннон нашел метод определения количества информации, содержащейся в сообщении, – сам он предпочитал термин «сигнал», – передаваемом в виде определенного кода. Под сигналом он подразумевал ряд двоичных чисел («битов», 0 или 1), который сегодня повсеместно используется как в современных компьютерах и устройствах связи, так и в семафоре Мюррея. Кодом Шеннон называл особую процедуру, преобразующую исходный сигнал в нечто иное. Простейший код банально оставляет все «как было», а более сложные применяются для обнаружения или даже коррекции ошибок, допущенных при передаче. В инженерных приложениях коды занимают центральное место, но для наших целей достаточно их опустить, предположив, что сообщения передаются в открытом виде.
Мера информации Шеннона численно выражает степень, на которую снижается неопределенность относительно бит, составляющих сигнал, в результате получения сообщения. Вот простейший пример, в котором сообщение представляет собой ряд нулей и единиц, и каждый из них одинаково вероятен, а количество информации в сообщении совершенно определено и равняется общему количеству двоичных чисел. Каждое число, получаемое нами, снижает нашу неопределенность относительно значения конкретно этого числа (это 0 или 1?) до определенности (скажем, 1), но ничего не говорит нам об остальных числах, то есть мы получаем только один бит информации. Проделайте то же самое тысячу раз и получите тысячу бит информации. Ничего сложного.
Предположим, нас сейчас интересует не смысл сигнала, а его побитное наполнение – такое восприятие близко инженерам связи. Итак, сообщение 111111111111111 содержит 15 бит информации, равно как и 111001101101011. Но понятие Шеннона об информации – не единственное. Позднее Грегори Хайтин отметил, что содержание шаблонов в сигнале может быть выражено количественно. Для этого нужно смотреть на размер не сообщения, а компьютерной программы, или алгоритма, который она может сгенерировать. Например, первое из вышеуказанных сообщений представляет алгоритм «каждое число равно 1». Но второе сообщение нельзя охарактеризовать столь же просто – его можно лишь побитно переписать. Таким образом, эти два сообщения имеют одинаковое содержание согласно Шеннону, но с точки зрения Хайтина второе сообщение содержит гораздо более «алгоритмическую информацию», чем первое.
Иными словами, понятие Хайтина рассматривает степень, до которой сообщение способно «сжиматься». Если короткая программа сгенерирует длинное сообщение, то мы можем передать программу вместо сообщения, сохранив время и деньги. А программа при этом «сжимает» сообщение. Когда компьютер получает большой графический файл – например, фотографию – и превращает ее в меньший, в формате JPEG, он использует стандартный алгоритм для сжатия информации, содержащейся в исходном файле. Это возможно благодаря тому, что в фотографиях содержится множество шаблонов: к примеру, повторяющиеся голубые пиксели, из которых состоит небо. Чем менее сжимаемым является сигнал, чем больше информации, согласно Хайтину, он содержит. А чтобы его сжать, нужно описать шаблоны, которые в нем содержатся. Отсюда следует, что несжимаемые сигналы случайны, не имеют шаблонов и при этом содержат максимальный объем информации. С одной стороны, это логично: когда каждый следующий бит максимально непредсказуем, вы получаете больше информации, когда узнаёте его значение. Если в сигнале содержится 111111111111111, то маловероятно, что следующий бит тоже окажется 1; но если в сигнале содержится 111001101101011 (для того чтобы получить это значение, мы пятнадцать раз подбросили монету), то очевидной возможности угадать следующий бит у нас нет.
Оба способа измерения информации могут оказаться полезными при разработке электронных технологий. Информация Шеннона определяет время, необходимое для передачи сигнала, в то время как информация Хайтина сообщает о наличии подходящего метода сжатия информации, чтобы передать ее в коротком виде. По крайней мере, так было бы, если ее подлежала расчету, но одна из особенностей теории Хайтина заключается как раз в невозможности расчета количества алгоритмической информации в сообщении – и он сумел это доказать. Волшебники наверняка оценили бы его прием.
Таким образом, «информацию» стоит считать полезным понятием, хотя и странно, что «Быть или не быть?», согласно Шеннону, содержит столько же информации, сколько «чнЙПКдакнг?в%ыл0ц». А все потому, что информация и смысл – это разные вещи. Что ничуть не удивительно. Для людей в сообщении важно не количество бит, а его смысл, но математики не умеют выражать его в количественном виде. Пока что.
Сообщения, несущие в себе смысл, возвращают нас к историям. Суть в том, что мы не должны путать истории с «информацией». Эльфы дали людям истории, но не информацию. И вообще, в историях, придуманных людьми, присутствует то, чего даже не существует в Круглом мире, – например оборотни. В них не содержится никакой информации – кроме разве что той, которая может рассказать вам о человеческом воображении.
Большинство людей – особенно ученые – приходят в восторг, когда у них получается представить понятие в виде числа. Все остальное кажется им слишком размытым, чтобы принести какую-либо пользу. «Информация» – это число, поэтому она кажется нам такой точной, что мы не замечаем того, что она может оказаться ложной. По этому скользкому пути довольно далеко зашли две науки – биология и физика.
С открытием «линейной» структуры молекулы ДНК в эволюционной биологии появилась притягательная метафора, касающаяся сложности организмов и их эволюции, а именно: геном организма содержит информацию, необходимую для его построения. Эта метафора родилась после того, как Фрэнсис Крик и Джеймс Уотсон совершили грандиозное открытие, что ДНК организма состоит из «кодовых слов», которые выражаются четырьмя «буквами» – А, Ц, Т и Г, соответствующими, как вы помните, четырем «основаниям». Вследствие этого было выдвинуто неизбежное предположение, что геном содержит информацию о соответствующем организме. И в самом деле, геном часто называют «содержащим всю информацию, которая необходима для создания этого организма».
В этом определении легче всего оспорить слово «всю». Существует бесчисленное множество причин, по которым ДНК развивающегося организма не определяет сам организм. Все эти негеномные влияния на развитие называются «эпигенетическими» и варьируются от еле уловимых химических отметок в ДНК до вклада заботливых родителей. Более трудная мишень – слово «информация». Разумеется, геном содержит информацию некоторого рода: в настоящее время ученые из разных стран мира трудятся над составлением списка всей информации, заключенной в геноме человека, а также других организмов – риса, дрожжей и круглого червя Caenorhabditis elegans. Оцените естественность нашего высокомерия – ведь слово «информация» здесь ссылается на человеческий разум как на приемник, а не как на развивающийся организм. Проект «Геном человека» снабжает информацией нас, а не организмы.
Эта несовершенная метафора ведет к столь же несовершенному заключению, что геном объясняет сложность организма относительно количества информации в коде ДНК. Люди так сложны потому, что в их длинном геноме содержится много информации; круглые черви менее сложны потому, что их геном короче. Однако эта притягательная идея не может соответствовать действительности. Так, шенноновская информация, содержащаяся в геноме человека, на несколько порядков меньше, чем количество информации, необходимой для описания связи между нейронами в человеческом мозгу. Как мы можем быть сложнее, чем информация, которая нас описывает? К тому же у некоторых амеб геном длиннее, чем у нас, – и этот факт опускает нас на несколько ступеней и подвергает еще большему сомнению то, что ДНК можно рассматривать как информацию.
В основе широко распространенного убеждения, будто сложность ДНК объясняет сложность организма (даже несмотря на его очевидную ошибочность), лежат два предположения, две научные истории, которые мы сами себе рассказываем. Первая называется «ДНК – это чертеж», и в ней геном рассматривается не только в контексте своего значения в управлении биологическим развитием, но и в качестве носителя информации, необходимой для определения организма. Вторая история называется «ДНК – это сообщение» и представляет собой метафору «Книги жизни».