Название | Информатика: введение в информационную безопасность |
---|---|
Автор произведения | А. А. Молдовян |
Жанр | Программы |
Серия | Учебники и учебные пособия (Юридический Центр Пресс) |
Издательство | Программы |
Год выпуска | 2004 |
isbn | 5-94201-399-3 |
В упомянутой выше работе, замечая, что определение чрезвычайно широких понятий сводится к указанию их наиболее характерных признаков, В. А. Герасименко иллюстрирует предпринятую им попытку структуризации понятия «информация» (рис. 1).
ИНФОРМАЦИЯ – основополагающее, вместе с тем чрезвычайно емкое, в высокой степени неопределенное (формально) понятие (в силу его необычности – многообразия форм и проявлений).
Рис. 1. Формы представления информации
Наиболее плодотворное развитие проблематика проникновения в сущность понятия «информация» получила в рамках теории информации и кибернетики. Теория информации начинается с работ Клода Шеннона, опубликованных в конце 40-х годов XX века. В классической теории информации преимущественно уделялось внимание тем аспектам информации, которые могут быть названы техническими. Из полученных в рамках этой теории результатов наибольшее значение имели те, которые относятся к теории и практике кодирования информации, а также к анализу и синтезу систем передачи информации по техническим каналам связи.
К. Шеннон предложил единицу измерения информации – бит, приписав каждому сигналу априорную вероятность его появления. Количество информации описывается формулой вида
где pi – вероятность появления i-го сигнала;
n – количество возможных сигналов[33].
Формула показывает зависимость количества информации от числа событий и вероятности совершения этих событий. Чем меньше вероятность появления того или иного сигнала (наступления события), тем больше информации он несет для потребителя. (В обыденном понимании – чем неожиданнее новость, тем больше ее информативность.) Информация равна нулю, когда возможно только одно событие. С ростом числа событий она увеличивается и достигает максимального значения, когда события равновероятны. Если событий всего два и они равновероятны, то выше представленная формула примет вид
I = -Ѕ log Ѕ – Ѕ log Ѕ.
В случае двоичных логарифмов log Ѕ = – 1, следовательно, I = 1.
Это значение и принято в шенноновской (математической) теории информации в качестве единицы информации – бита.
При таком понимании
32
Российская газета. 1991. 9 авг. (ВВС РФ. 1992. № 7. Ст. 300).
33
Знак минус в формуле поставлен для того, чтобы значение количества информации оказалось положительным, поскольку вероятность – величина всегда меньшая или равная единице.