Авиационно инженерство Административно право Административно право Беларус Алгебра Архитектура Безопасност на живота Въведение в професията „психолог” Въведение в икономиката на културата Висша математика Геология Геоморфология Хидрология и хидрометрия Хидросистеми и хидравлични машини Културология Медицина Психология икономика дескриптивна геометрия Основи на икономически т Oria професионална безопасност Пожарна тактика процеси и структури на мисълта, Професионална психология Психология Психология на управлението на съвременната фундаментални и приложни изследвания в апаратура социалната психология социални и философски проблеми Социология Статистика теоретичните основи на компютъра автоматично управление теория на вероятностите транспорт Закон Turoperator Наказателно право Наказателно-процесуалния управление модерна производствена Физика Физични феномени Философски хладилни инсталации и екология Икономика История на икономиката Основи на икономиката Икономика на предприятията Икономическа история Икономическа теория Икономически анализ Развитие на икономиката на ЕС Спешни ситуации ВКонтакте Однокласници Моят свят Facebook LiveJournal Instagram
border=0

Пример 2.8

Когато се познае резултата от хвърлянето на зарове, се задава въпросът „Отпаднал 6?“. Колко информация съдържа отговорът?

p = 1/6, 1 - p = 5/6, следователно, от (2.14)

I (p) = 1/6 2 log 2 6 + 5/6 2 log 2 1.2 = 0.65 бита <1 бит.

6. Формула (2.14) води до друго заключение. Нека някой опит има два резултата A и B, с p A = 0.99 и p B = 0.01. В случай на резултат А получаваме количеството информация I A = - log 2 0,99 = 0,0145 бита. В случай на резултат Б, количеството информация е равно на I B = - log 2 0.01 = 6.644 бита. С други думи, повече информация е свързана с тези резултати, които са по-малко вероятни. Всъщност А беше почти сигурен, че дори преди опита; следователно реализирането на такъв резултат много малко добавя нашето съзнание. Напротив, резултат В е много рядък; с нея се свързва повече информация (трудно беше да се очаква събитие). Въпреки това, такова голямо количество информация рядко се получава по време на повторението на експеримента, тъй като вероятността В е малка.Средното количество информация съгласно (2.14) е I = 0.99 A I A + 0.01 B I B 0,081 бита.

7. Разгледахме вероятностния подход за определяне на количеството информация. Той не е единственият. Както ще бъде показано по-късно, количеството информация може да бъде свързано с броя на символите в отделно съобщение - този метод на измерване се нарича обемна. Това е възможно да се докаже с всеки вариант на кодиране на информацията I глагол < I vol .

8. Обективност на информацията. Когато се използват от хора, същата информация може да има различна оценка по отношение на значимостта (значение, стойност). При такава оценка съдържанието (значението) на съобщението за конкретен потребител е решаващо. Въпреки това, при решаването на практически проблеми от техническо естество, съдържанието на съобщението може да не играе роля. Например, задачата на телеграфна (и всяка друга) комуникационна линия е точното и безгрешно предаване на съобщение, без да се анализира колко ценна е информацията, свързана с нея, за получателя. Едно техническо устройство не може да оцени важността на информацията - нейната задача е да прехвърля или записва информация без загуба. Над определената информация е резултат от избора. Такава дефиниция не зависи от това кой избира и как, а количествената мярка на информацията, свързана с нея, е еднаква за всеки потребител. Следователно става възможно обективно измерване на информацията, докато резултатът от измерването е абсолютен. Това е предпоставка за решаване на технически проблеми. Невъзможно е да се предложи абсолютна и еднаква за всяка мярка стойността на информацията. От гледна точка на официалната информация, една страница от учебник по компютърни науки или от романа “Война и мир” и страница, написана с безсмислени икони, съдържат еднакво количество информация. Количествената страна на информацията е обективна, семантичната - не. Обаче, жертвайки семантичната (семантична) страна на информацията, ние получаваме обективни методи за измерване на нейното количество, а също и способността да описваме информационните процеси чрез математически уравнения. Това е приближение и в същото време условие за приложимостта на законите на теорията на информацията при анализа и описанието на информационните процеси.

9. Информация и знания. На ниво домакинство, например, в социалните науки, в педагогиката „информацията“ се идентифицира с „осъзнаване“, т.е. човешкото познание, което от своя страна е свързано с оценката на значението на информацията. В информационната теория, напротив, информацията е мярка за нашето незнание за нещо (но какво може да се случи по принцип); веднага щом това се случи и разберете резултата, информацията, свързана с това събитие, изчезва. Събитието не носи информация, тъй като неговата несигурност изчезва (ентропията става нула) и съгласно (2.13) I = 0.

Последните две забележки са много важни, тъй като неразбирането на посочените в тях обстоятелства води до опити за прилагане на законите на информационната теория в областите, в които не са изпълнени условията за неговата приложимост. Това от своя страна генерира отрицателни резултати, които причиняват неудовлетвореност в самата теория. Въпреки това, всяка теория, включително теорията на информацията, е валидна само в началните граници. Други аспекти, включително философски, на понятието "информация" могат да бъдат намерени в книгата на А.В. Могилева, Н. И. Пак, Е. К. Хеннер [30, с.27-30]; тя също така предоставя списък с референции по този въпрос.





Вижте също:

Нормални марковски алгоритми

Пример 7.8

Начини за описване на официалните езици

Пример 4.13

Сравнение на алгоритмичните модели

Връщане към съдържанието: Теоретични основи на компютърните науки

2019 @ ailback.ru