OZ 2012/3

M T 115 ORGANIZACIJA ZNANJA 2012, LETN. 17, ZV. 3 primerih ta odnos aditivno inverzen. Stonier (1997) pa pokaže, da je entropija multiplikativno povezana z informacijami! Povprečna količina informacij se imenuje Shannonova entropija. Izraz je sila podoben enačbi za entropijo v termodinamiki ameriškega teoretičnega fizika, kemika in matematika Gibbsa (1839–1903): S = –kbΣP i logP i Ta izraz se imenuje tudi Boltzmann-Gibbsova enačba za entropijo. Avstrijski fizik in filozof Boltzmann (1844–1906) je neodvisno od Maxwella razvil kinetično teorijo plinov in s tem na statistični mehaniki osnoval termodinamiko kot nauk o toploti, v kateri opišemo termodinamični sistem z množico molekul. Najbolj preprost primer takšnega sistema je plin. Boltzmannova enačba za entropijo se glasi: S = k logW Boltzmann je pokazal, da lahko Clausiusov izrek o naraščanju entropije razumemo tudi kot zakon o povečevanju neurejenosti. S tem je položil temelje poznejšim Gibbsonovim dosežkom. K razvoju termodinamike je prispeval tudi omenjeni nemški fizik in matematik Clausius (1822–1888), ki je vpeljal količino entropije S . Clausius, je postavil matematični zapis kinetične teorije plinov. Zapisal je drugi zakon termodinamike in odkril, da v vsakem zaprtem termodinamičnem sistemu razmerje toplote in absolutne temperature samo narašča, ne more pa se zmanjšati. To razmerje je imenoval entropija. Čim večja je entropija sistema, tem manj energije lahko uporabimo za mehansko delo. Drugi zakon termodinamike se imenuje tudi entropijski zakon, po katerem si entropijo sistemi izmenjujejo, ko si (reverzibilno) izmenjujejo toploto. Pri ireverzibilnih spremembah nastane toplota iz nič in je ni mogoče uničiti. Boltzmann (1896) je povezal entropijo z verjetnostjo W in je od tedaj entropija "mera nereda". W je seštevek načinov, na katere je iz molekul sestavljeni termodinamični sistem v ravnovesnem stanju. Entropije se seštevajo, verjetnosti pa med seboj množijo. V enačbi je log naravni logaritem, k Boltzmannova konstanta, ki jo je prvi določil in poimenoval šele Max Planck leta 1900. Enačba upošteva, da je treba verjetnosti pri sestavljanju sistemov z enako temperaturo in tlakom med seboj množiti, entropije pa se seštevajo. Entropija statistične mehanike mora biti enaka klasični Clausiusovi termodinamični entropiji, ki odgovarja Shannonovi informacijski entropiji. Ameriški izumitelj Hartley je v svojem delu Prenos informacij iz leta 1928 predlagal, da se količina informacij definira s pomočjo logaritma vseh enako verjetnih možnih izborov. Kadar imamo n = 1, 2, 3 ... enako verjetnih elementov, takrat je verjetnost izbora enega izmed njih enaka p = P(N) = 1/n. Količina informacij H , ki jo vsebuje sporočilo, sestavljeno iz znakov N , izbranih iz abecede znakov S ustreza izrazu: H = N logS Ta enačba je čisto podobna enačbi, ki jo je izpeljal Boltzmann iz statistične mehanike. Čeprav sta si podobni, sta po pomenu sila različni. To dejstvo so inženirji komunikacij na čelu s Shannonom spregledali, kar je bil vir precejšnje zmede. Boltzmann je povezal spremembe v entropiji s spremembami v redu oz. neredu sistema, ki ga proučujemo. Ta enačba je napeljala Schrödingerja (1944) na premislek o implikacijah entropije in reda za živa bitja. Na institutu sem natisnil brošuro Erwina Schrödingerja What is Life? (1944) za osebno uporabo, vendar izpisa žal nisem računalniško oštevilčil. Neoštevilčen izpis sem odnesel domov, tam ga je moj maček vrgel na tla in so se papirji zamešali. Entropija izpisa je s tem zelo narasla. Potreboval sem najmanj eno uro, da sem liste izpisa brošure spravil v urejeno stanje, s tem pa sem zmanjšal količino entropije, ki je nastala po padcu listov na tla. Nato sem liste ročno oštevilčil in s tem vnesel novo vsebino informacij. Za urejanje je bilo potrebnega precej poznavanja pomena zapisanih informacij (črk, besed, sintakse, semantike in pragmatike angleškega jezika). Dodana vsebina je prispevala k organiziranosti in lažjemu vzdrževanju izpisa brošure v urejenem in uporabnem stanju, ki je zdaj vseboval dodatno količino informacij! Brez dodajanja informacijske vsebine v okviru redne obdelave in urejanja bi bile tudi knjižnice zgolj truma knjižničnega gradiva v nepopisnem kaosu. V zvezi s Schrödingerjevo fiziko življenja (1944) govorimo tudi o t. i. Schrödingerjevem paradoksu. Fizika življenja vključuje organiziranost živih bitij (organizmov), ki jo zagotavlja paralelizem dveh zelo različnih mehanizmov: • statistični mehanizem, ki proizvaja organiziranost iz neorganiziranosti (angl. order from disorder ) in • mehanizem proizvajanja organiziranosti iz organiziranosti (angl. order from order ). Načeli sta kot rečeno precej različni, saj – kot pravi Schrödinger – ni pričakovati, da bi lahko sosedovo stanovanje odklenili z našim ključem. Vendar je tudi načelo organiziranosti iz organiziranosti izvirno fizično, saj ga vključuje kvantna fizika. Tako za pojasnitev življenja potrebujemo dodatna načela fizike! Mehanska dogodka, Tvrtko-Matija Šercar: INFORMACIJSKA EKOLOGIJA ...

RkJQdWJsaXNoZXIy MTAxMzI5