Количественная мера информации

информация текстовый сообщение количественный

Таблица 1

- 0.175

О 0.090

Е, Ё 0.072

А 0.062

И 0.062

Т 0.053

Н 0.053

С 0.045

Р 0.040

В 0.038

Л 0.035

К 0.028

М 0.026

Д 0.025

П 0.023

У 0.021

Я 0.018

Ы 0.016

З 0.016

Ь, Ъ 0.014

Б 0.014

Г 0.013

Ч 0.012

Й 0.010

Х 0.009

Ж 0.007

Ю 0.006

Ш 0.006

Ц 0.004

Щ 0.003

Э 0.003

Ф 0.002

Некоторая разница значений частот в приводимых в различных источниках таблицах объясняется тем, что частоты существенно зависят не только от длины текста, но и от его характера.

Устойчивыми являются также частотные характеристики биграмм, триграмм и четырехграмм осмысленных текстов.

ХОД РАБОТЫ

1. Построил таблицу распределения частот символов, характерныx для заданного сообщения путём деления количества определённого символа в данном сообщении на общее число символов

По формуле

H= вычислил энтропию сообщения

2. Далее по формуле Шеннона для определения кол-ва информации

вычислил кол-во информации в передаваемом сообщении

3. Вычислил избыточность D по формуле

Размещено на Allbest.ru

Страница:  1  2 


Другие рефераты на тему «Программирование, компьютеры и кибернетика»:

Поиск рефератов

Последние рефераты раздела

Copyright © 2010-2024 - www.refsru.com - рефераты, курсовые и дипломные работы