Авиационно инженерство Административно право Административно право Беларус Алгебра Архитектура Безопасност на живота Въведение в професията „психолог” Въведение в икономиката на културата Висша математика Геология Геоморфология Хидрология и хидрометрия Хидросистеми и хидравлични машини Културология Медицина Психология икономика дескриптивна геометрия Основи на икономически т Oria професионална безопасност Пожарна тактика процеси и структури на мисълта, Професионална психология Психология Психология на управлението на съвременната фундаментални и приложни изследвания в апаратура социалната психология социални и философски проблеми Социология Статистика теоретичните основи на компютъра автоматично управление теория на вероятностите транспорт Закон Turoperator Наказателно право Наказателно-процесуалния управление модерна производствена Физика Физични феномени Философски хладилни инсталации и екология Икономика История на икономиката Основи на икономиката Икономика на предприятията Икономическа история Икономическа теория Икономически анализ Развитие на икономиката на ЕС Спешни ситуации ВКонтакте Однокласници Моят свят Facebook LiveJournal Instagram
border=0

При равни други условия, опитът с равностойни резултати има най-голяма ентропия.

С други думи, ентропията е максимална в експерименти, където всички резултати са равностойни. Тук се вижда аналогия (с дълбок фундаментален принцип!) С концепцията за ентропия, използвана във физиката. Концепцията за ентропия е въведена за първи път през 1865 г. от германския физик Рудолф Клаузиус като функция на състоянието на термодинамичната система, която определя посоката на спонтанните процеси в системата. Клаузиус формулира II началото на термодинамиката. По-специално той показа, че ентропията достига максимум в равновесното състояние на системата. По-късно (през 1872 г.), Лудвиг Болцман, развивайки статистическа теория, свързва ентропията на системата с вероятността за своето състояние, дава статистическа (вероятностна) интерпретация на втория закон на термодинамиката и по-специално показва, че вероятността е максимална за напълно разрушена (равновесна) система освен това ентропията и термодинамичната вероятност се оказаха свързани с логаритмична зависимост. С други думи, във физиката, ентропията е мярка за разстройство в една система. В този случай разстройството се разбира като липса на познания за характеристиките на обекта (например координатите и скоростта на молекулата); с растежа на ентропията, редът в системата намалява, т.е. познанията ни за нея. Приликата между понятията и отношенията между тях в теорията на информацията и статистическата термодинамика, както се оказа по-късно, изобщо не е случайна.

* Повече за това можете да прочетете в книгите на L. Brillouin [7] и R. L. Stratonovich [39].

Между другото, резултатът, получен в Пример 2.1, описан по-горе, илюстрира валидността на формула (2.7).

Вижте също:

Алгоритмична машина на Тюринг

Пример 9.1

Дефиниция на системата

Графична форма на запис

Унифицирано буквено двоично кодиране. Код за байт

Връщане към съдържанието: Теоретични основи на компютърните науки

2019 @ ailback.ru