Организация и современные методы защиты информации — страница 13
объекта X равно значению х (аналогично в других случаях). Тогда можно определить: P(x), Р(у/х), Р(х/у), энтропию Н(Х), условную энтропию H(X/Y) и среднюю взаимную информацию I(Х, Y) = Н(X) - H(X/Y). Определение. Выполнение команды a в состоянии s, переводящей состояние s в s', вызывает информационный поток от X к Y (обозначение Х-->aY ),если I(Х, Y)>0. Величина I(Х, Y) называется величиной потока информации от X к Y. Определение. Для объектов X и Y существует информационный поток величины С (бит), если существуют состояния s и s' и последовательность команд a такие, что s|-- s'(a), X-->aY. Оценка максимального информационного потока определяется пропускной способностью канала связи Х--->a Y и равна по величине C(a, X, Y)=max I(X, Y). P(x) Рассмотрим дальнейшие примеры информационных потоков в вычислительных системах. 1. Рассмотрим операцию присвоения значения переменных Y:=X. Пусть X - целочисленная случайная величина со значениями [0,15] и Р(x) - равновероятная мера на значениях X. Тогда Н(Х)=4 бит. После выполнения операции присвоения по полученной в состоянии s‘ величине Y однозначно восстанавливается X, следовательно H(X/Y)=0 ÞI(X, Y)=4ÞC(a, X, Y)=4, т.к. рассмотренный канал - симметричный. 2. Y:=X Z:=Y. Выполнение этих команд вызывает непрямой (косвенный) поток информации Х-->Z, такой же величины как прямой поток Х-->Y. 3. Z:=X + Y. Предполагаем, что X, Y Î[0,15] и равновероятны. Тогда Н(Х)=4, H(Y)=4. 0 < H(X/Z) =å Р(х, z) logP(x/z)< 4, (xz) следовательно, 0 < I(Х, Z) < 4 бит. 4. Пусть X1, X2,..., Хn - независимые одинаково распределенные равновероятные случайные величины со значениями 0 и 1. n Z=åXi , Н(Х1) = 1, i=1
Похожие работы
- Рефераты
- Рефераты