Чтение онлайн

на главную

Жанры

Естествознание. Базовый уровень. 11 класс

Титов Сергей Алексеевич

Шрифт:

S = klog W,

где k – коэффициент пропорциональности, а W – число микросостояний, соответствующих данному макросостоянию.

Состояние I, так же как и состояние V, определяется единственным микросостоянием. Так как логарифм единицы по любому основанию равен нулю, то и энтропия этих состояний равна нулю. Это значит, что в этих состояниях существует абсолютный порядок. Число микросостояний, которые определяют макросостояния I и IV, равно четырём, а значит, энтропия каждого из них равна log 4. Величина этого логарифма зависит от того, какое основание для логарифмирования мы выберем. Вообще говоря, основание может быть любым, так как в зависимости от этого изменится только коэффициент пропорциональности. Но по причинам, о которых вы узнаете в дальнейшем, нам будет удобно выбрать основание 2. Тогда энтропия макросостояний I и IV будет равна двум. Самым «беспорядочным» из наших макросостояний будет

состояние III, которое может осуществиться шестью микросостояниями. Следовательно, энтропия этого, наиболее вероятного, состояния равна логарифму 6 по основанию 2, что составляет приблизительно 2,6.

Проверьте свои знания

1. Что такое макро– и микросостояние?

2. Чему равна энтропия макросостояния, которое обеспечивается единственным микросостоянием?

3. Почему макросостояние, при котором число шариков в каждой ячейке одинаково, оказывается наиболее вероятным?

4. Какие у создателей статистической физики были основания сопоставить вероятность состояния с его энтропией?

Задания

Предположим, что у нас имеется 6 шариков, которые могут быть распределены по двум ячейкам.

A. Составьте таблицу, в которой будут указаны все возможные макросостояния.

Б. Составьте таблицу, в которой будут указаны все микросостояния для каждого макросостояния.

B. Найдите вероятность каждого макросостояния.

§ 9 Информация

Есть у меня шестёрка слуг,Проворных, удалых,И всё, что вижу я вокруг, —Всё знаю я от них.Они по знаку моемуЯвляются в нужде.Зовут их: Как и Почему,Кто, Что, Когда и Где.Р. Киплинг

Любое живое существо постоянно передаёт во внешний мир какие-то сигналы, а также получает сигналы из окружающей его среды.

Рис. 19. К. Шеннон

Человеку свойственна непрерывная познавательная деятельность, в течение жизни он постоянно узнаёт что-то новое и что-то в устной или письменной форме сообщает другим людям. Мы постоянно передаём окружающим и получаем от них знаки и сообщения, содержащие сведения о мыслях, чувствах, мнениях или желаниях. Мир этих сообщений и способов их передачи кажется необъятным, не поддающимся никакому строгому формальному описанию, тем более в математической форме.

Тем не менее в первой половине XX в. встал вопрос о необходимости введения количественной характеристики для передаваемых и принимаемых сообщений. Эта количественная характеристика вскоре получила название информация. Официально создателем теории информации считается американский инженер и математик Клод Шеннон (1916–2001), опубликовавший свою работу в этой области в 1948 г., хотя ещё в начале XX в. у него были предшественники (рис. 19). Работая в компании «Белл», Шеннон занимался процессами передачи сообщений, а во время Второй мировой войны много времени уделял процедуре шифрования (рис. 20). Перед исследователями, занимавшимися проблемами связи, стоял вопрос, как передать полезное сообщение с максимальной точностью и минимальными затратами. Для этого требовалось знать, сколько информации попало к потребителю и сколько её потерялось в процессе передачи. Поэтому количество информации необходимо было измерить.

Как можно измерить информацию? Прежде всего, надо уяснить, что информация – это не характеристика сообщения, а характеристика отношения между сообщением и его потребителем. Одно и то же сообщение может содержать огромную информацию для одного потребителя и нулевую – для другого, например для человека, незнакомого с языком, на котором передано это сообщение.

Логично предположить, что количество содержащейся в сообщении информации зависит от того, насколько это сообщение было неожиданным. Ведь если мы заранее знали всё, о чём нам сообщили, то никакой информации нам это сообщение не дало. Но как измерить степень неожиданности строгой количественной мерой? Допустим, получив сообщение, мы не узнали ничего нового. Это означает, что результат был известен нам и до сообщения и мы могли предугадать его с вероятностью, равной единице. Значит, единичной вероятности соответствует нулевая информация. Но если мы не были уверены в правильном ответе на интересующий нас вопрос, мы вместе с точным ответом получаем и какую-то информацию. Определить её количество можно, если представить себе, что такое самый простой вопрос. Очевидно, это такой вопрос, на который можно ответить либо «да», либо «нет».

Рис. 2 0. Лаборатория

«Белл» в Мюррей Хилл (Нью-Джерси, США), работая в которой в 1948 г. Клод Шеннон опубликовал статью «A Mathematical Theory of Communication», одну из основополагающих работ по теории информации.

Если мы не имеем заранее никаких предположений, то, независимо от того, каким будет ответ, мы получаем одно и то же количество информации. Это количество представляет собой единицу информации и называется бит.

В том случае, когда ответ нельзя получить сразу, требуется задавать дополнительные вопросы. Самой эффективной для спрашивающего будет такая стратегия, когда он задаёт вопросы с возможными ответами «да» или «нет», причём вероятности получить тот или иной ответ кажутся ему одинаковыми. На этом строится широко известная игра в угадывание известного человека или кого-нибудь из присутствующих. Угадывающий мысленно разбивает ответы на две, как ему кажется, равновероятные части и задаёт вопрос, ответ на который может быть положительным или отрицательным. Каждый раз он получает информацию, равную одному биту. Количество полученной при угадывании информации равно числу вопросов, которые пришлось задать игроку. Искусство угадывания зависит от того, каким образом должен быть поставлен вопрос. Приведём один из возможных примеров такой игры. Допустим, требуется угадать Исаака Ньютона. Можно представить, что игра проходит следующим образом.

1. «Это государственный деятель?» – «Нет!» – 2. «Занимался искусством?» – «Нет!» – 3. «Занимался наукой?» – «Да!» – 4. «Биологией?» – «Нет!» – 5. «Физикой?» – «Да!» (Теперь можно угадывать либо по времени, в котором жил этот учёный, либо по его национальности. Первый вариант представляется более простым, так как большинство известных нам учёных жили либо в XIX, либо в XX в. Поэтому можно поставить следующие вопросы.) – 6. «Живёт в наше время?» – «Нет!» – 7. «Жил в прошлом веке?» – «Нет!» (Значит, он жил либо в XIX в., либо раньше.) – 8. «Жил в девятнадцатом веке?» – «Нет!» (Значит, этот человек либо из Древней Греции, либо из XVI–XVIII вв., уточним.) – 9. «Жил после пятнадцатого века?» – «Да!» (Большинство учёных этого времени жили в Англии, Италии или во Франции, поэтому попробуем угадывать по национальности.) – 10. «Англичанин?» – «Да!» (Повезло! Из всех англичан, занимавшихся в это время наукой, самым известным был Ньютон. Теперь можно попробовать угадать напрямую.) – 11. «Ньютон?» – «Да!!!» Ответ найден. Для этого потребовалось задать одиннадцать вопросов. Значит, мы получили одиннадцать бит информации? Не совсем так. Дело в том, что при таком угадывании многое зависит от интуиции и везения. Если бы мы начали угадывать национальность не с Англии, а сначала поинтересовались бы, не является ли он итальянцем, а потом – французом, нам пришлось бы задать на два вопроса больше. Наоборот, если бы мы не стали уточнять, какой именно наукой занимался учёный, а продолжали бы интересоваться, в какое время он жил, мы могли бы сэкономить два вопроса. Таким образом, оценка полученной информации, равная 11 битам, является очень приблизительной.

Как уже говорилось, количество содержащейся в сообщении информации неодинаково для каждого получателя этого сообщения и зависит от его предварительного знания. Поэтому объективно можно определить только максимальное количество этой информации, предполагая, что получатель заранее не имеет никаких знаний по этому вопросу. Предположим, что нам сказали, что Юпитер является самой большой планетой Солнечной системы. Какая информация содержится в этом сообщении? Для того, кто это знал заранее, – никакой. Для того, кто предполагал, но сомневался, – определённое количество, точно оценить которое трудно. Поэтому вычислим максимальную информацию, которую получает человек, не имеющий никакого понятия о планетах, и знает только их названия и то, что всего их имеется восемь. Сколько вопросов он должен задать, чтобы узнать, какая из этих планет самая большая? Для удобства он располагает все планеты в алфавитном порядке: Венера, Земля, Марс, Меркурий, Нептун, Сатурн, Уран, Юпитер. Можно попробовать, конечно, просто перечислять планеты в этом порядке, но такой способ угадывания будет неудачным потому, что придётся задать семь вопросов и получить на все ответ «нет», пока мы не доберёмся до самой большой, но последней по алфавиту планеты. Поэтому правильнее будет поступить так: разделить все планеты на две равные группы и спросить, принадлежит ли самая большая к одной из них. Поскольку наш персонаж ничего не знает о планетах, кроме их названий, он может спросить: «Буква, с которой начинается название этой планеты, стоит в алфавите до Н?» – и получить отрицательный ответ. Вторым вопросом будет «Находится ли эта буква после С?». Ответом будет «да». Теперь осталось только выяснить, Уран это или Юпитер, с помощью одного вопроса. Таким образом, человеку, абсолютно несведущему в данной области, достаточно задать три вопроса, чтобы получить верный ответ. Следовательно, информация, содержащаяся в сообщении «Юпитер – самая большая планета Солнечной системы», равна 3 битам.

Поделиться:
Популярные книги

Поступь Империи

Ланцов Михаил Алексеевич
7. Сын Петра
Фантастика:
попаданцы
альтернативная история
5.00
рейтинг книги
Поступь Империи

Мастер Разума

Кронос Александр
1. Мастер Разума
Фантастика:
героическая фантастика
попаданцы
аниме
6.20
рейтинг книги
Мастер Разума

Сиротка 4

Первухин Андрей Евгеньевич
4. Сиротка
Фантастика:
фэнтези
попаданцы
6.00
рейтинг книги
Сиротка 4

Провинциал. Книга 7

Лопарев Игорь Викторович
7. Провинциал
Фантастика:
боевая фантастика
космическая фантастика
5.00
рейтинг книги
Провинциал. Книга 7

Ненаглядная жена его светлости

Зика Натаэль
Любовные романы:
любовно-фантастические романы
6.23
рейтинг книги
Ненаглядная жена его светлости

Книга пяти колец

Зайцев Константин
1. Книга пяти колец
Фантастика:
фэнтези
6.00
рейтинг книги
Книга пяти колец

Ваше Сиятельство

Моури Эрли
1. Ваше Сиятельство
Фантастика:
фэнтези
попаданцы
5.00
рейтинг книги
Ваше Сиятельство

Болотник 3

Панченко Андрей Алексеевич
3. Болотник
Фантастика:
попаданцы
альтернативная история
6.25
рейтинг книги
Болотник 3

Темный Охотник 3

Розальев Андрей
3. КО: Темный охотник
Фантастика:
фэнтези
попаданцы
аниме
5.00
рейтинг книги
Темный Охотник 3

Семья. Измена. Развод

Высоцкая Мария Николаевна
2. Измены
Любовные романы:
современные любовные романы
5.00
рейтинг книги
Семья. Измена. Развод

Восход. Солнцев. Книга X

Скабер Артемий
10. Голос Бога
Фантастика:
фэнтези
попаданцы
аниме
5.00
рейтинг книги
Восход. Солнцев. Книга X

По осколкам твоего сердца

Джейн Анна
2. Хулиган и новенькая
Любовные романы:
современные любовные романы
5.56
рейтинг книги
По осколкам твоего сердца

Барон диктует правила

Ренгач Евгений
4. Закон сильного
Фантастика:
фэнтези
попаданцы
аниме
5.00
рейтинг книги
Барон диктует правила

Неудержимый. Книга XII

Боярский Андрей
12. Неудержимый
Фантастика:
фэнтези
попаданцы
аниме
5.00
рейтинг книги
Неудержимый. Книга XII