Информатика: введение в информационную безопасность. А. А. Молдовян

Читать онлайн.



Скачать книгу

так и не отошли от общеупотребительной трактовки данного понятия. В частности, Закон РСФСР «О средствах массовой информации», принятый в 1991 году, определяет массовую информацию как «предназначенные для неограниченного круга лиц печатные, аудиовизуальные и иные сообщения и материалы»[32]. Такие подходы делают тождественными понятия «информация» и «сообщение», хотя это верно только по отношению к информации, исходящей от человека и обращаемой им в сигналы, символы или звуки. Однако информация об окружающей действительности, которую человек получает через свои органы чувств, далеко не во всех случаях исходит от другого человека (например, температура окружающей среды, рельеф местности и т. п.).

      В упомянутой выше работе, замечая, что определение чрезвычайно широких понятий сводится к указанию их наиболее характерных признаков, В. А. Герасименко иллюстрирует предпринятую им попытку структуризации понятия «информация» (рис. 1).

      ИНФОРМАЦИЯ – основополагающее, вместе с тем чрезвычайно емкое, в высокой степени неопределенное (формально) понятие (в силу его необычности – многообразия форм и проявлений).

      Рис. 1. Формы представления информации

      Наиболее плодотворное развитие проблематика проникновения в сущность понятия «информация» получила в рамках теории информации и кибернетики. Теория информации начинается с работ Клода Шеннона, опубликованных в конце 40-х годов XX века. В классической теории информации преимущественно уделялось внимание тем аспектам информации, которые могут быть названы техническими. Из полученных в рамках этой теории результатов наибольшее значение имели те, которые относятся к теории и практике кодирования информации, а также к анализу и синтезу систем передачи информации по техническим каналам связи.

      К. Шеннон предложил единицу измерения информации – бит, приписав каждому сигналу априорную вероятность его появления. Количество информации описывается формулой вида

      где pi – вероятность появления i-го сигнала;

      n – количество возможных сигналов[33].

      Формула показывает зависимость количества информации от числа событий и вероятности совершения этих событий. Чем меньше вероятность появления того или иного сигнала (наступления события), тем больше информации он несет для потребителя. (В обыденном понимании – чем неожиданнее новость, тем больше ее информативность.) Информация равна нулю, когда возможно только одно событие. С ростом числа событий она увеличивается и достигает максимального значения, когда события равновероятны. Если событий всего два и они равновероятны, то выше представленная формула примет вид

      I = -Ѕ log Ѕ – Ѕ log Ѕ.

      В случае двоичных логарифмов log Ѕ = – 1, следовательно, I = 1.

      Это значение и принято в шенноновской (математической) теории информации в качестве единицы информации – бита.

      При таком понимании



<p>32</p>

Российская газета. 1991. 9 авг. (ВВС РФ. 1992. № 7. Ст. 300).

<p>33</p>

Знак минус в формуле поставлен для того, чтобы значение количества информации оказалось положительным, поскольку вероятность – величина всегда меньшая или равная единице.