Книга Открытое произведение. Форма и неопределенность в современной поэтике - Умберто Эко
Шрифт:
Интервал:
Закладка:
Эта необычная эстетическая ситуация, а также трудности, с которыми мы сталкиваемся, пытаясь дать точное определение той «открытости», к которой стремятся различные современные поэтики, заставляют нас теперь приступить к рассмотрению особого вида научной методологии, а именно теории информации, в которой, как нам кажется, мы можем найти указания, представляющие интерес для нашего исследования. Указания двоякого рода: с одной стороны, мы полагаем, что некоторые поэтики на свой лад отражают ту же культурную ситуацию, которая обусловила исследования в области информации, с другой стороны, нам кажется, что некоторые методологические приемы, появившиеся в результате этих исследований, при соответствующей корректировке можно использовать в сфере эстетики (и мы увидим, что другие это уже делали). Мы, однако, предвидим немедленные возражения в том смысле, что между научными исследованиями и художественным творчеством не может существовать эффективных связей и что любая параллель является совершенно неосновательной. Следовательно, для того, чтобы избежать прямых и поверхностных перенесений, прежде всего будет полезно рассмотреть общие принципы теории информации, не соотнося их с эстетикой, и только потом выяснить, существуют ли какие-либо связи, а если существуют, то какие именно, и при каких условиях методологические приемы, используемые в одной области, можно использовать в другой.
I. Теория информации
Теория информации стремится к тому, чтобы подсчитать количество информации, содержащейся в том или ином сообщении. Если, например, в метеорологической сводке от 4 августа сообщается о том, что «завтра снегопада не ожидается», информация, которую я получаю, оказывается довольно скудной, потому что речь идет о факте, настолько само собой разумеющемся, что количество известных мне вещей и возможность предугадывать завтрашние события нисколько не увеличиваются. Если же 4 августа сводка погоды сообщает, что «завтра, 5 августа, ожидается снегопад», я получаю значительное количество информации, если учесть невероятность события, о котором мне сообщили. Количество информации, содержащееся в каком-либо сообщении, определяется и осведомленностью, которой я могу располагать относительно достоверности ее источника. Если, покупая дом у агента по недвижимости, я спрашиваю его, не слишком ли этот дом сырой, и он отвечает мне «нет», я получаю мало информации и продолжаю сомневаться в достоверности его слов, но если тот же агент, совершенно неожиданно для меня и в ущерб своим собственным интересам, говорит «да», тогда я получаю изрядное количество информации и действительно узнаю что-то по интересующему меня вопросу.
Таким образом, информация представляет собой некое дополнение, является чем-то таким, что добавляется к уже известному и что я воспринимаю как новое. Однако в приведенных нами примерах речь шла о достаточно обширной и сложной информации, в которой доля новизны зависит от ожиданий получателя. На деле информацию предварительно следует выделить в гораздо более простых ситуациях, в которых ее количество можно измерить математически и выразить в числах, не обращаясь к познаниям, которыми может располагать ее возможный получатель; в этом, собственно, и заключается задача теории информации. Ее расчеты подходят к сообщениям любого вида, к числовым и лингвистическим символам, к последовательности тех или иных звуков и т. д.
Чтобы подсчитать количество информации, необходимо исходить из того, что максимальная вероятность совершения какого-то события равна 1, а минимальная 0. Следовательно, математическая вероятность совершения события колеблется между единицей и нулем. Когда мы подбрасываем монету, у нас одинаковая вероятность того, что выпадет: «орел» или «решка», и, следовательно, вероятность «орла» равна ½. Если же мы берем игральную кость, то вероятность выпадения тройки равна ⅙. Вероятность того, что два независимых друг от друга события совершатся одновременно, зависит от вероятности совершения каждого из них, и, таким образом, вероятность того, например, что одна игральная кость выбросит единицу, а вторая шестерку, равна 1/36.
Ряд событий, которые могут осуществиться, и ряд вероятностей, связанных с совершением этих событий, соотносятся как арифметическая и геометрическая прогрессии (как сумма и произведение) или как величина и ее логарифм, иными словами, второй ряд есть логарифм первого. Более понятным образом количество информации можно выразить так:
В случае с монетой (если мне говорят о том, что выпадет «орел») равенство будет таким:
Следовательно, данное равенство (поскольку при полученном сообщении вероятность всегда будет равна единице, если допустить, что отсутствует фоновый шум, о котором мы еще поговорим) можно представить так:
Информ. = – log (вероятность, имеющаяся для получателя до получения сообщения).
В случае с монетой:
– log (½) = log 2
Оперируя выбором одной из двух равновероятных возможностей, теория информации использует логарифмы по основанию 2 и называет единицу информации термином бит (bit, или binit), представляющим собой сокращение двух слов binary digit (двоичный знак). Использование логарифма по основанию 2 имеет следующее преимущество: поскольку log22 = 1, один бит информации говорит нам о том, какая из двух возможностей события осуществляется.
Еще один пример: возьмем доску из 64 клеток, в одной из которых должна располагаться пешка. Если информатор сообщает мне, что она находится в клетке 48, тогда получаемую мною информацию можно измерить следующим образом: поскольку изначально мои возможности угадать эту клетку составляли 1/64, формула выглядит так: –log2(1/64) = log264 = 6. Таким образом, я получил информацию, которую можно сосчитать в 6 битах{45}.
Таким образом, можно сказать, что количество информации, переданной в сообщении, является логарифмом по основанию 2 определенного числа альтернатив, позволяющих недвусмысленно определить это сообщение{46}.
Для того, чтобы измерить уменьшение или увеличение количества информации, специалисты обращаются к понятию, заимствованному из термодинамики и теперь уже вполне обоснованно вошедшему в терминологический багаж теории информации. Речь идет о понятии энтропии. Это понятие достаточно широко известно, потому что все о нем слышали, но в силу этого оно достаточно размыто, так как каждый понимает его по-своему и использует весьма свободно; поэтому будет неплохо, если мы вкратце его рассмотрим, ибо его происхождение из термодинамики оставило наслоения, не всегда обоснованные.
Согласно второму началу термодинамики, сформулированному Р. Клаузиусом, если определенное количество работы может полностью трансформироваться в теплоту (о чем говорит первое начало термодинамики), то каждый раз, когда теплота трансформируется в работу, это происходит не столь полно и завершенно, как в первом случае. Для того, чтобы совершился переход определенного количества теплоты в работу, двигатель должен обеспечивать обмен теплотой между двумя телами с различной температурой: источником теплоты и охладителем. Двигатель поглощает определенное количество теплоты от ее источника, но