OZ 2012/3

114 ORGANIZACIJA ZNANJA 2012, LETN. 17, ZV. 3 zdravilnih, negativnih učinkov na preobilico informacij in selektivno pridobivanje kakovostnih relevantnih informacij. Slika 1: Ekosistem znanstvenega informiranja in komuniciranja (Vir: Goffman and Warren, 1980, 176). Po zakonu komplementarne kumulacije oblik komuniciranja (Šercar, 1988) naj bi veljal za tradicionalne, fizične knjižnice model "internet plus", po katerem slednje razvijajo in opravljajo tiste funkcije, storitve in proizvode, ki jih ne zmoreta internet in svetovni splet! Prenovljeno razumevanje odno- sa med informacijami in entropijo Po Shannonu in Weaverju (1948) je odnos med informacijami in entropijo premo sorazmeren (večja entropija pomeni večjo količino informacij). Entropija je mera nedoločenosti. Količina informacij pa je enaka nedoločenosti, preden se neki dogodek zgodi ali neki poskus opravi. Večja verjetnost, da je neka izjava resnična, pomeni, da izjava vsebuje manjšo količino informacij. Količina informacij je aditivna količina (se sešteva) in jo merimo v bitih. Verjetnost neodvisnih sporočil je zmnožek njihovih posamičnih verjetnosti. Ker je količina informacij aditivna količina, je Shannon predlagal naslednjo enačbo za izračun količine informacij (Q), pri čemer je k konstanta in P verjetnost: Q = –k logP Količino informacij v bitih merimo tako, da za logaritem uporabimo logaritem z osnovo 2 (log 2 ) in k = 1. Če pa namesto log 2 uporabimo naravni logaritem l n = log e in namesto k uporabimo k b , dobimo izraz, ki se ujema z definicijo v termodinamiki. Če je več dogodkov z verjetnostjo P i , ki ustreza informaciji Q i = –k logP i , se izraz za povprečno količino informacij S glasi: S = <Q>=ΣQ i P i = k ΣP i logP i Shannonovo entropijo si lahko pogledamo pri metu kovanca v primeru, ko sta v naključnem procesu možna dva izida. Imamo torej poskus z dvema možnima izidoma z verjetnostima P in 1-P. Shannonova entropija za tak poskus je: H = –ΣP i logP i = P log P – (1–P)log (1–P) Slika 2: Gibanje entropije H v bitih, v odvisnosti od verjetnosti P (Vir: http://www.aktivno.si/ai/sl/ 646-teorija-informacij/, pridobljeno s svetovnega spleta 24. 3. 2011) Entropija ima maksimum pri P=1/2, takrat je tudi največja negotovost ali nedoločenost izida in največja pridobljena informacija – 1 bit, kot je pri metu kovanca. Minimum se pojavi pri P = 0 ali 1, ko je negotovost ali nedoločenost in s tem količina pridobljene informacije najmanjša – 0 bitov. Iz tega lahko vidimo, da gotov dogodek ne prinaša informacije. Gotov dogodek je ta, ki se zgodi pri vsaki ponovitvi poskusa. Na sliki je s črtkano črto prikazana informacija, povezana z vsakim možnim izidom. Informacija, povezana z rezultatom, ki ima verjetnost P je I = –log 2 P, in se zmanjšuje, ko se P poveča. Torej, ko je verjetnost dogodka zelo majhna, je informacija, povezana s takim dogodkom, zelo velika. Ampak tak dogodek se ne zgodi pogosto, zato ne prispeva veliko k povprečni količini informacije (na sliki polna črta). Ko je dogodek skoraj gotov (P skoraj 1), zelo veliko prispeva k povprečni količini informacije, a ima zelo majhno količino informacije. Za drug izid z verjetnostjo 1 – P, I = log 2 (1–P) je graf le zrcalna slika tega. Največja povprečna količina informacije je, ko je P = 1–P = 1/2 in oba izida prinašata 1 bit informacije (na grafu, kjer se črtkani črti sekata). Po Brilloinu (1956), ki je kot "shannonist" popravil Shannona in Weaverja, je ta odnos negativen (večja entropija pomeni manjšo količino informacij). Vendar je v obeh Tvrtko-Matija Šercar: INFORMACIJSKA EKOLOGIJA ...

RkJQdWJsaXNoZXIy MTAxMzI5