Entropija (informacijos teorija)

Iš testwiki.
Pereiti į navigaciją Jump to search

Entropijainformacijos teorijoje naudojamas dydis, kuris apibūdina vidutinį informacijos kiekį, kurį teikia vienas pranešimas (kai perdavimo kanale nėra trukdžių).

Informacinės entropijos sąvoką 1948 m. pristatė Klodas Šanonas savo darbe „Matematinė komunikacijos teorija“ (A Mathematical Theory of Communication),[1][2] kuri dar vadinama Šenono entropija.

Formulė

H=i=1npilogapi

Šaltiniai

Šablonas:Išnašos

  1. Šablonas:Cite journal (PDF, archived from here)
  2. Šablonas:Cite journal (PDF, archived from here)