Учебное пособие для студентов, обучающихся по специальности - страница 2

^ 1.2. Основы теории информации

Вся жизнь человека так или иначе связана с накоплением и обработкой информации, которую он получает из окружающего мира, используя пять органов чувств – зрение, слух, вкус, обоняние и осязание. Как научная категория «информация» составляет предмет изучения для самых разных дисциплин: информатики, кибернетики, философии, физики, биологии, теории связи т. д. Несмотря на это, строгого научного определения, что же такое информация, до настоящего времени не существует, а вместо него используют понятие об информации. Понятие отличается от определений тем, что разные дисциплины в разных областях науки и техники вкладывают в него разный смысл с тем, чтобы оно в наибольшей степени соответствовало предмету и задачам конкретной дисциплины. Имеется множество определений и понятия информации, от наиболее общего философского (информация есть отражение реального мира) до наиболее частного прикладного (информация есть сведения, являющиеся объектом переработки). Вот некоторые из них 1, с. 4:

Высшей, специфической формой отражения является сознание человека. Кроме этого, существуют и другие формы – психическая (присущая не только человеку, но и животным, несущая в себе информацию, способную влиять на их эмоциональные состояния и поведение), раздражимость (охватывающая, помимо прочего, растения и простейшие организмы, регулирующие на слабые механические, химические, тепловые контакты с окружающей средой) и самая элементарная форма – запечатление взаимодействия (присущая и неорганической природе, и элементарным частицам, т. е. материи вообще).

Так, кусок каменного угля несет в себе «отражение» событий, произошедших в далекие времена, т. е. обладает свойством информативности. Деловое письмо с предложениями сотрудничества информативно, так как отражает серьезные намерения определенного учреждения или ведомства. Команда приступить к конкретным действиям (запуску ракеты, отправки груза, производству вычислений и т. п.) содержит информацию о подготовленности соответствующих служб и своевременности предпринимаемых шагов.

Информация не является ни материей, ни энергией. В отличие от них она может возникать и исчезать. В указанных примерах информация в куске каменного угля или делового письма может исчезнуть, если исчезнет ее носитель, например, сгорит.

Особенность информации заключается в том, что проявляется она только при взаимодействии объектов, причем обмен информацией может совершаться не вообще между любыми объектами, а только между теми из них, которые представляют собой организованную структуру (систему). Элементами этой системы могут быть не только люди: обмен информацией может происходить в животном и растительном мире, между живой и неживой природой, людьми и устройствами. Так, информация, заключенная в куске каменного угля проявляется лишь при взаимодействии с человеком, а растение, получая информацию о свете, днем раскрывает свои лепестки, а ночью закрывает их.

Понятие «информация» обычно предполагает наличие двух объектов – «источника» информации и «приемника» (потребителя, адресата) информация.

Информация передается от источника к приемнику в материально-энергетической форме в виде сигналов (например, электрических, световых, звуковых и т. д.), распространяющихся в определенной среде.

Сигнал – физический процесс (явление), несущий сообщение (информацию) о событии или состоянии объекта наблюдения.

Информация может поступать непрерывно или дискретно, т.е. в виде последовательности отдельных сигналов. Соответственно различают непрерывную и дискретную информацию.

Информация – специфический атрибут реального мира, представляющий собой его объективное отражение в виде совокупности сигналов и проявляющийся при взаимодействии с «приемником» информации, позволяющим выделять, регистрировать эти сигналы из окружающего мира и по тому или иному критерию их идентифицировать.

Из этого определения следует, что:

Человек воспринимает сигналы посредством органов чувств, которые «идентифицируются» мозгом. Поэтому, например, при наблюдении одного и того же объекта человек с лучшим зрением может получить больше информации об объекте, чем тот, у которого зрение хуже. В то же время при одинаковой остроте зрения, в случае, например, прочтения текста на иностранном языке, человек, не владеющий этим языком, вообще не получит никакой информации, так как его мозг не сможет ее «идентифицировать». Приемники информации в технике воспринимают сигналы с помощью различной измерительной и регистрирующей аппаратуры. При этом приемник, обладающий большей чувствительностью при регистрации сигналов и более совершенными алгоритмами их обработки, позволяет получить большие объемы информации.

Информация имеет определенные функции и этапы обращения в обществе. Основными из них являются:

- ее синтез (производство),

- представление,

- хранение (передача во времени),

- восприятие (потребление);

- передача (в пространстве),

- распределение;

Информацию, которую получает человек, можно считать мерой уменьшения неопределенности знаний. Если некоторое сообщение приводит к уменьшению неопределенности наших знаний, то можно говорить, что такое сообщение содержит информацию 4, с. 75. Подход к информации как мере уменьшения неопределенности знаний позволяет количественно измерять информацию, что чрезвычайно важно для информатики.

Рассмотрим конкретный пример. Пусть у нас имеется монета, которую мы бросаем на ровную поверхность. С равной вероятностью произойдет одно из двух возможных событий – монета окажется в одном из двух положений: «орел» или «решка».

Можно говорить, что события равновероятны, если при возрастающем числе опытов количества вы «орла» и «решки» постепенно сближаются. Например, если мы бросим монету 10 раз, то «орел» может выпасть 7 раз, а решка – 3 раза, если монету бросим 100 раз, то «орел» может выпасть 60 раз, а «решка» – 40 раз, если бросим монету 1000 раз, то «орел» может выпасть 530 раз, а «решка» – 470 и т.д. В итоге при очень большой серии опытов количества выпадений «орла» и «решки» практически сравняются.

Перед броском существует неопределенность наших знаний (возможны два события), и, как упадет монета, предсказать невозможно. После броска наступает полная определенность, так как мы видим (получаем зрительное сообщение), что монета в данный момент находится в определенном положении (например, «орел»). Это сообщение приводит к уменьшению неопределенности наших знаний в два раза, так как до броска мы имели два вероятных события, а после броска – только одно, то есть в два раза меньше. Говорят, что получено количество информации, равное 1 биту.

Бит является минимальной единицей измерения количества информации, а следующей по величине единицей является байт, причем

1 байт = 23 бит = 8 бит

В информатике система образования кратных единиц измерения количества информации отличается от принятых в большинстве наук. Компьютер оперирует числами не в десятичной системе счисления, а в двоичной, поэтому в кратных единицах измерения информации используется коэффициент 2n.

Так, кратные байту единицы измерения количества информации вводятся следующим образом:

1 Кбайт = 210 байт = 1024 байт;

1 Мбайт = 210 Кбайт = 1024 Кбайт;

1 Гбайт = 210 Мбайт = 1024 Мбайт.

Существует несколько мер информации: синтаксическая мера, семантическая мера и прагматическая мера 2. Синтаксическая мера – это мера количества информации, которая оперирует с обезличенной информацией, не выражающей смыслового отношения к объекту. Семантическая мера служит для измерения смыслового содержания информации, т.е. ее количества на семантическом уровне. Прагматическая мера определяет полезность информации (ценность) для достижения пользователем поставленной цели.

Для измерения информации на синтаксическом уровне вводятся два параметра: объем информации (данных) – V (объемный подход) и количество информации – I (энтропийный подход).

^ Объемный подход. При реализации информационных процессов информация передается в виде сообщения, представляющего собой совокупность символов какого-либо алфавита. При этом каждый новый символ в сообщении увеличивает количество информации, представленной последовательностью символов данного алфавита. Если теперь количество информации, содержащейся в сообщении из одного символа, принять за единицу, то объем информации V в любом другом сообщении будет равен количеству символов (разрядов) в этом сообщении. Так как одна и та же информация может быть представлена многими разными способами (с использованием разных алфавитов), то и единица измерения информации (данных) соответственно будет меняться.

Так, в десятичной системе счисления один разряд имеет вес, равный 10, и соответственно единицей измерения информации будет дит (десятичный разряд). В этом случае сообщение в виде n-разрядного числа имеет объем данных V = n дит.

В двоичной системе счисления один разряд имеет вес, равный 2, и соответственно единицей измерения информации будет бит (двоичный разряд). В этом случае сообщение в виде n-разрядного числа имеет объем данных V = n бит.

Создатели компьютеров отдают предпочтение именно двоичной системе счисления, потому что в техническом устройстве наиболее просто реализовать два различных состояния, например: диод открыт или закрыт, конденсатор заряжен или незаряжен и т.п. (Системы счисления рассматриваются в данном пособии в следующем разделе.)

^ Энтропийный подход. В теории информации и кодирования принят энтропийный подход к измерению информации. Этот подход основан на том, что факт получения информации всегда связан с уменьшением разнообразия или неопределенности (энтропии) системы. Исходя из этого, количество информации в сообщении определяется как мера уменьшения неопределенности состояния данной системы после получения сообщения. Неопределенность может быть интерпретирована в смысле того, насколько мало известно наблюдателю о данной системе. Как только наблюдатель выявил что-нибудь в физической системе, энтропия системы снизилась, так как для наблюдателя система стала более упорядоченной.

Таким образом, при энтропийном подходе под информацией понимается количественная величина исчезнувшей в ходе какого-либо процесса (испытания, измерения и т. д.) неопределенности. При этом в качестве меры неопределенности вводится энтропия Н, а количество информации равно:

I = Hapr – Haps ,

где Hapr – априорная энтропия о состоянии исследуемой системы или процесса;

Haps – апостериорная энтропия.

Апостериори (от лат. a posteriori – из последующего) – происходящее из опыта (испытания, измерения).

Априори (от лат. a priori – из предшествующего) – понятие, характеризующее знание, предшествующее опыту (испытанию), и независимое от него.

В случае когда в ходе испытания имевшаяся неопределенность снята (получен конкретный результат, т. е. Haps = 0), количество полученной информации совпадает с первоначальной энтропией I = Hapr.

Американский ученый К. Шеннон обобщил понятие меры неопределенности выбора H на случай, когда Н зависит не только от числа состояний, но и от вероятностей этих состояний.

Формула Шеннона: N

I = -  pi log2 pi ,

i=1

где pi – вероятность i-го события.

При равновероятностных выборах формула Шеннона преобразуется в формулу Хартли:

I = log 2 N или 2I = N,

где N – количество равновероятных событий,

I – количество информации.

Без информации не может существовать жизнь в любой форме и не могут функционировать созданные человеком любые информационные системы. Без нее биологические и технические системы представляют груду химических элементов. Общение, коммуникации, обмен информацией присущи всем живым существам, но в особой степени – человеку. Будучи аккумулированной и обработанной с определенных позиций, информация дает новые сведения, приводит к новому знанию. Получение информации из окружающего мира, ее анализ и генерирование составляют одну из основных функций человека, отличающую его от остального животного мира.


Вопросы для самопроверки

  1. Дайте определение информатике.

  2. Какова общая структура информатики?

  3. Определите связи информатики с другими науками.

  4. Какие определения понятия «информация» вы знаете?

  5. Назовите формы отражения в живой и неживой природе.

  6. Какие вам известны приемники и источники информации?

  7. Какие функции выполняет информация в обществе?

  8. Расскажите о мерах информации.

  9. В каких единицах можно измерять информацию?

  10. В чем суть различных подходов к измерению информации?


Литература

  1. Акулов, О.А. Информатика: базовый курс: учеб. пособие для студентов / О.А. Акулов, Н.В. Медведев. – М.: Омега-Л, 2005. – 552 с.

  2. Бешенков, С.А. Информатика. Систематический курс. Учебник для 10 класса / С.А. Бешенков, Е.А. Ракитина – М.: Лаборатория Базовых Знаний, 2001. – 432 с.

  3. Каймин, В.А. Информатика: учеб. – М.: ТК Велби, Изд-во Проспект, 2007. – 272 с.

  4. Угринович, Н.Д. Информатика и информационные технологии. Учебник для 10-11 классов / Н.Д. Угринович. – М.: Бином. Лаборатория знаний, 2002. – 512 с.




8607516961022362.html
8607631349492057.html
8607705657774379.html
8607830385213105.html
8607982182001469.html