Чтение онлайн

на главную

Жанры

Шрифт:

Это слово всем вам знакомо. Но в науке оно имеет более узкий смысл, чем в обыденной жизни. Ведь и в физике слово «сила» гораздо уже, чем житейское понятие «сила». Однако такое сужение ведет к тому, что мы получаем возможность измерять информацию числами (подобно тому как в физике мы можем измерять силу). И с помощью чисел — универсального языка — мы можем привлекать к передаче, приему и переработке информации наших железных помощников — машины.

ЕДИНИЦА ИЗМЕРЕНИЯ — БИТ

Вероятно, вы читали рассказ писателя Н. Носова «Телефон». Легко можно представить себе, что его герои затеяли

такую игру: один из ребят бросал монету,

а затем передавал по телефону, ка«кая сторона ее — «герб» или «решка» — оказалась сверху.

Обе стороны, если монета без вмятин, равноправны. И получатель сообщения, сидящий у телефона в соседней квартире, не знает заранее, о «гербе» или «решке» сообщит ему бросающий монету отправитель сообщения.

Информация уничтожает незнание... В нашем случае это незнание о том, какая из сторон монеты выпала, ибо обе они равноправны, или, как говорят математики, равновероятны. Информация, которая содержится в сообщении о том, какая из сторон монеты выпала, равна одному биту (сокращенное английское название «двоичный разряд» — binary digest).

Бит — это количество информации, которое содержится в сообщении, где возможно два выбора, два исхода. И оба исхода равноправны, равновероятны. Сила измеряется в динах, энергия — в эргах, масса — в граммах, время — в секундах, информация же — в битах.

Мы уже рассказывали об удивительных свойствах «машинной», двоичной арифметики, где все числа записаны в виде нулей и единиц. Теперь же стоит ознакомиться и с «машинными логарифмами» — логарифмами, у которых основанием степени взято число 2, а не 10, как в обычной школьной математике. Логарифм 2 будет равен единице; эта величина и равна одному биту, единице измерения информации.

Логарифм — это показатель степени. 2 во второй степени, то есть 4, будет равно 2 битам. Это значит, что в сообщении о том, какой масти карта, вытащенная наугад из колоды, содержится 2 бита. 23, то есть 8, равно 3 битам, 24, то есть 16, равно 4 битам, и т. д. Шахматная доска состоит из 64 квадратов. 64 — это 2 в шестой степени. Значит, если нам сообщат об одном задуманном наугад квадрате, мы получим информацию в 6 бит.

Двоичный логарифм 1 равен нулю; двоичный логарифм 3 равен 1,58496; числа 5 — 2,32193; числа 6 — 2,58496; числа 7 — 2,80735, и так далее. Значит, информация в сообщении о том, какая из шести сторон кубика выпала, равна 2,58496 бита. Точно так же можно найти, пользуясь таблицей двоичных логарифмов, значение в битах любого числа выборов.

ЗАЧЕМ НУЖНЫ ЛОГАРИФМЫ!

Но, может быть, проще обходиться без логарифмов? Ведь и так ясно, что чем больше выборов, чем больше неопределенности, тем больше информации несет сообщение, уничтожающее, «снимающее» эту неопределенность. А количество информации измерять просто числом возможных выборов, и только.

Разумеется, можно выбрать и такую меру. Но у нее есть явное неудобство по сравнению с мерой логарифмической.

Информацию, выраженную в битах, можно складывать и вычитать. Скажем, в сообщении о выборе из восьми возможностей содержится на 2 бита больше, чем в сообщении о выборе из двух исходов, так как 3 бита минус 1 бит равно 2 битам. Информация многих кодовых знаков равна сумме информации, которую несет каждый знак. Но если мерять информацию не логарифмически, в битах, то это было бы не так. И вот почему.

Мы говорили о равноправных, равновероятных выборах. Например, каждая из сторон монеты выпадает с равной вероятностью. Допустим, нам десять раз сообщили, какая из сторон монеты выпала при десяти подбрасываниях. Информация об этом равна 10 битам. Но не «20 выборам», если принять за единицу измерения просто число выборов.

Теория вероятностей говорит: вероятности надо не складывать, а умножать. У нас произошло десять событий, десять результатов подбрасывания монеты. И что бы узнать количество информации, которое мы получили, нужно перемножить число выборов десять раз, если мы хотим получить измерение информации в «числе выборов», а не в битах.

Гораздо проще не умножать, а складывать числа, особенно большие. Логарифмы и позволяют делать это.

Преимущество логарифмической меры стало особенно ясно после того, как в 1947 году американец Клод Шеннон заложил основы современной теории информации.

До сих пор речь шла лишь о равноправных, равновероятных исходах. Если брать падение монеты или кубика, то это будет так. Но большинство выборов неравновероятны. Например, в вашем классе единицы и двойки — явление гораздо менее частое, чем пятерки или четверки. Температура ниже нуля — обычное явление в январе и очень редкое в июле. Слово «целую» и «приезжаю» можно встретить почти в любой телеграмме, а чтобы найти слова «сумма синусов», вам, вероятно, пришлось бы пересмотреть не одну тысячу телеграмм.

Как же быть с такими событиями, «равновероятными» кодовыми знаками? До Шеннона считалось, что измерить количество информации, которое несут эти знаки, нельзя. Ведь вероятность хорошей или плохой оценки зависит от успеваемости в классе, от того, насколько хорошо выучен урок, а не от математики. Точно так же и погода, и телеграммы, посылаемые с почтамта, и многие другие «неравновероятные» события.

Клод Шеннон показал, что с помощью теории вероятностей можно учесть и эти причины, казалось бы, совершенно не «подведомственные» математике. Например, если в классе из 100 отметок по физике 65 — пятерки, 22 — четверки, 9 — тройки, 4 — двойки и ни одной единицы, можно считать, что вероятность получения «отлично» равна 0,65, «хорошо» — 0,22, «посредственно» — 0,09, «плохо» — 0,04, «очень плохо» — 0,00.

Зная эти вероятности, можно найти количество информации, которое получает классный руководитель, узнавая об успеваемости по физике.

Давайте посчитаем сами. Всего возможно пять разных оценок, пять различных исходов. Двоичный логарифм 5 равен 2,32193. Но все оценки, как мы говорили, имеют разную вероятность. Ученик, скорее всего, получит 5 или 4, а не 3 или 2. Учитывая разную вероятность этих оценок, по формуле Шеннона можно найти количество информации более точно. Оно равно вероятности первой оценки (пятерки), умноженной на двоичный логарифм вероятности этой же оценки, плюс вероятность второй оценки, умноженной на двоичный логарифм вероятности этой же оценки,

и т. д.

В итоге получается 1,3831 бита двоичных единиц информации. Почти в два раза уменьшилось количество информации, когда мы учли «неравноправие» различных выборов!

Формула Шеннона может помочь найти количество информации при любом числе выборов. Лишь бы нам была известна вероятность их появления. А вероятность эту можно определить, производя статистические подсчеты.

Погода не зависит от математики. Но если вести регулярные и многолетние наблюдения, можно знать, как часто бывают в данной местности дождь, засушливые дни, заморозки, иными словами — «вероятность появления» дождя, заморозков, засушливых дней.

Поделиться:
Популярные книги

Отмороженный 3.0

Гарцевич Евгений Александрович
3. Отмороженный
Фантастика:
боевая фантастика
рпг
5.00
рейтинг книги
Отмороженный 3.0

Магнатъ

Кулаков Алексей Иванович
4. Александр Агренев
Приключения:
исторические приключения
8.83
рейтинг книги
Магнатъ

Лорд Системы 13

Токсик Саша
13. Лорд Системы
Фантастика:
фэнтези
попаданцы
рпг
5.00
рейтинг книги
Лорд Системы 13

Магия чистых душ 2

Шах Ольга
Любовные романы:
любовно-фантастические романы
5.56
рейтинг книги
Магия чистых душ 2

Романов. Том 1 и Том 2

Кощеев Владимир
1. Романов
Фантастика:
фэнтези
попаданцы
альтернативная история
5.25
рейтинг книги
Романов. Том 1 и Том 2

Последняя жена Синей Бороды

Зика Натаэль
Любовные романы:
любовно-фантастические романы
5.00
рейтинг книги
Последняя жена Синей Бороды

Мимик нового Мира 8

Северный Лис
7. Мимик!
Фантастика:
юмористическая фантастика
постапокалипсис
рпг
5.00
рейтинг книги
Мимик нового Мира 8

Приручитель женщин-монстров. Том 3

Дорничев Дмитрий
3. Покемоны? Какие покемоны?
Фантастика:
юмористическое фэнтези
аниме
5.00
рейтинг книги
Приручитель женщин-монстров. Том 3

Возвышение Меркурия. Книга 13

Кронос Александр
13. Меркурий
Фантастика:
попаданцы
аниме
5.00
рейтинг книги
Возвышение Меркурия. Книга 13

Чиновникъ Особых поручений

Кулаков Алексей Иванович
6. Александр Агренев
Фантастика:
попаданцы
альтернативная история
5.00
рейтинг книги
Чиновникъ Особых поручений

Охота на попаданку. Бракованная жена

Герр Ольга
Любовные романы:
любовно-фантастические романы
5.60
рейтинг книги
Охота на попаданку. Бракованная жена

Жена на четверых

Кожина Ксения
Любовные романы:
любовно-фантастические романы
эро литература
5.60
рейтинг книги
Жена на четверых

Я все еще не князь. Книга XV

Дрейк Сириус
15. Дорогой барон!
Фантастика:
юмористическое фэнтези
попаданцы
аниме
5.00
рейтинг книги
Я все еще не князь. Книга XV

Звезда сомнительного счастья

Шах Ольга
Фантастика:
фэнтези
6.00
рейтинг книги
Звезда сомнительного счастья