Mittayksiköt, luku 19 Datamäärä ja informaatio:

Informaation yksiköt

Informaatioteoriassa käsitetään informaatio suureeksi, joka on tapahtuman toden­näköi­syy­den käänteis­luvun logaritmi− I(x) = log(1/P(x)), missä P(x) on tapahtuman x toden­näköi­syys. Logaritmi voi olla 10-, 2- tai e-kantainen, ja näin saadaan kolme eri yksikköä:

Informaation määrän yksiköitä
SuomeksiEnglanniksiKantaTunnusHavainnollistus
hartley [hartli] hartley 10Hart desimaalinumero, yksi 10:stä vaihtoehdosta
shannon [šänon] shannon 2Sh bitti, yksi 2:sta vaihtoehdosta
informaation luonnollinen yksikkö natural unit of information enat 1/ln(2) shannonia.

Yksiköiden suhteet määräytyvät logaritmien ominaisuuksien mukaan. Likimäärin 1 Sh ≈ 0,301 Hart ≈ 0,639 nat.

Hartleyn aiempia nimiä ovat ”ban” ja ”dit”.

Esimerkiksi yhden desimaali­numeron 0–9 informaatio­määrä on yksi hartley eli 1 Hart, jos kaikki numerot ovat yhtä todennäköisiä. Tällöinhän P(x) = 1/10, jonka käänteis­luku on 10, jonka 10-kantainen logaritmi on 1.

Informaation määrän yksiköitä käytetään myös entropian yksikköinä.

Edellä mainituista yksiköistä muodostetaan kerrannaisia SI-etuliitteillä, esimerkiksi megatavu (MB). Tähän kuitenkin liittyy lähinnä periaatteellisia ongelmia, joita käsitellään seuraavassa kohdassa.