Entropija (informacijos teorija)
Pereiti į navigaciją
Jump to search
Entropija – informacijos teorijoje naudojamas dydis, kuris apibūdina vidutinį informacijos kiekį, kurį teikia vienas pranešimas (kai perdavimo kanale nėra trukdžių).
Informacinės entropijos sąvoką 1948 m. pristatė Klodas Šanonas savo darbe „Matematinė komunikacijos teorija“ (A Mathematical Theory of Communication),[1][2] kuri dar vadinama Šenono entropija.
Formulė
Šaltiniai
- ↑ Šablonas:Cite journal (PDF, archived from here)
- ↑ Šablonas:Cite journal (PDF, archived from here)