Eötvös Loránd Tudományegyetem Könyvtártudományi Informatikai Tanszék Fülöp Géza Az információ




Download 8.26 Mb.
bet10/47
Sana09.06.2021
Hajmi8.26 Mb.
#14852
1   ...   6   7   8   9   10   11   12   13   ...   47
INFORMÁCIÓ ÉS ENTRÓPIA
1961-ben Shannon elmesélte Myron Tribusnak, hogy amikor azóta híressé vált egyenletét levezette, komoly gondot okozott neki, milyen nevet adjon a “gyermeknek”. “Először információnak akartam nevezni, de ez a szó túlságosan meg volt terhelve. Így elhatároztam, hogy “bizonytalanságnak” fogom nevezni. Amikor a kérdést megvitattam Neumann Jánossal, jobb ötlete volt. “Nevezze entrópiának - mondta. Két okból. Először is az ön bizonytalansági függvénye a statisztikus mechanikában ezen a néven szerepel, így hát van már neve. Másrészt, s ez a fontosabb, senki sem tudja, hogy igazából mi is az entrópia, s így, ha vitára kerül sor, ön mindig előnyben lesz.” (Tribus - McIrvine, 1971). (Más források helytelenül Wienernek tulajdonítják a keresztapaságot).

Hogy mennyi az igazság Neumann János ironikus megjegyzésében, arra még visszatérünk. (Most csak annyit, hogy az entrópia már csak azért is titokzatos mennyiség, mert nincs róla közvetlen tapasztalatunk, mindennapi életünkben csak rejtett szerepe van, közvetlenül nem mérhető és az energiával ellentétben nem megmaradó mennyiség.) Először azonban vizsgáljuk meg, vajon a termodinamikai és információelméleti entrópia között a formai azonosságon kívül van-e mélyebb összefüggés.

Hogy a kérdést megválaszolhassuk, elevenítsük fel az entrópiával kapcsolatos ismereteinket.

En = -ban, -ben, -ba, belé; troposz = fordulat, irány, helyzet; antroposz = önmagába fordulás.

A szót Clausius alkotta annak az állapotjelzőnek a megnevezésére, amelynek segítségével sikerült a termodinamika második főtételét matematikai formába öntenie.

A második főtétel triviálisnak mondható tapasztalati tényeket emel törvényerőre. Azt, hogy hidegebb testről melegebbre hő önként megy át. És azt, hogy - Kelvin megfogalmazásában - minden önként végbemenő folyamatnál bizonyos munka kárba vész, termikus energiává alakulva szétszóródik, disszipálódik. Ezért van az, hogy a természetben önként végbemenő folyamatok egyirányúak, megfordíthatatlanok, irreverzibilisek. Míg munka vagy bármilyen energiafajta teljes egészében hővé alakítható, a hő átalakítása más energiafajtává csak részben lehetséges. A hőt ugyanis a többi energiafajtákkal szemben a rendezetlenség jellemzi. (Szokás éppen ezért az energiafajtákat rangsorolni: a mechanikai és elektromos energia magasrendű, a hő alacsonyrendű energia.)

Clausius az entrópia bevezetésével egzakt matematikai formát adott a második főtételnek. Egy rendszer entrópiájának változását a következő képlet adja:

                                    

ahol a dS = entrópiaváltozás; dQ = felvett hőmennyiség; T = abszolút hőmérséklet.

A második főtétel azt mondja ki, hogy magára hagyott zárt rendszerben az entrópia vagy nő - ameddig a rendszer az egyensúlyi állapotot eléri -, vagy állandó marad - ha a rendszer egyensúlyi állapotban van -, de csökkenni sohasem csökkenhet. A természetes folyamatok mindig az entrópianövekedés irányába mennek végbe.

Schrödinger így fogalmazta meg az entrópia mibenlétét: “Mi az entrópia? Először is hangsúlyozni szeretném, hogy nem ködös fogalomról vagy elgondolásról, hanem ugyanolyan mérhető fizikai mennyiségről van szó, mint... adott kristály olvadáshője vagy bármely adott test fajhője. Az abszolút zérus fok hőmérsékletén minden anyag entrópiája zérus. Ha a kérdéses anyagot lassú, megfordítható kicsiny lépésekben bármilyen más állapotba visszük, az entrópia olyan mennyiséggel nő, amelynek nagysága úgy számítható ki, ha a kérdéses folya­mat során a testnek szolgáltatott kis hőmennyiségeket osztjuk azzal az abszolút hőmér­séklettel, amelyben a hőátadás történt, s az így kapott kis tagokat összegezzük.” (Schrödinger, 1945).

Az entrópia és a rendezetlenség összefüggése a statikus termodinamikában tudatosult. Ennek a tárgykörnek egyik alapfogalmát, a termodinamikai valószínűséget Boltzmann vezette be és kapcsolta össze az entrópiával.

Az érzékszervek számára összefüggőnek tűnő anyag mikrorendszerek sokaságából áll. Ezek állapota határozza meg az anyag, az objektum mikroállapotát. Több különböző mikroállapot eredményezheti ugyanazt a makroállapotot. Az adott makroállapotot megvalósító különböző mikroállapotok száma arányos (egyenlő) az illető makroállapot termodinamikai valószínű­ségével. Szemléltetésül álljon itt egy egyszerű példa:

Egy zárt edényt, amelyben négy különböző természetű gázmolekula található, osszunk három egyforma cellára. A négy molekula különbözőképpen oszolhat meg a cellák között. A rendszer makroviselkedése szempontjából mindegy, melyik molekula melyik cellában van, csak az a fontos, hogyan oszlanak meg. Példánkban a rendszer 15 makroállapotban létezhet, s ezekhez különböző számú mikroállapot tartozhat. Nevezzük a molekulákat a, b, c, d-nek.

A 4, 0, 0 megoszlás csak háromféleképpen valósulhat meg: mind a négy molekula a három cella valamelyikében van, s mindegyik makroállapothoz csak egy mikroállapot tartozik:



I.




II.




III.

abcd




0




0

0




abcd




0

0




0




abcd

A 3,1,0 megoszlás hat mikroállapot-típust jellemez, s ezek egyenként négy-négy mikroállapot révén valósulnak meg:

I.




II.




III.

abc




d




0

abd




c




0

acd




b




0

bcd




a




0

A 2, 2, 0 megoszlásnak három makroállapot felel meg, s ezekhez egyenként hat mikroállapot tartozik:

I.




II.




III.

ab




cd




0

ac




bd




0

ad




bc




0

bc




ad




0

bd




ac




0

cd




ab




0

A 2, 1, 1 megoszlás révén létrejövő makroállapotok száma szintén három, de ezeket külön-külön tizenkét mikroállapot valósíthatja meg:

I.

II.

III.




I.

II.

III.










ab

c

d




bc

a

d










ab

d

c




bc

d

a










ac

b

d




bd

a

c










ac

d

b




bd

c

a










ad

b

c




cd

a

b










ad

c

b




cd

b

a










Az egyes mikroállapot-típusok előfordulási valószínűségeinek aránya tehát 1:4:6:12. A 2, 1, 1, megoszlás tehát tizenkétszer gyakrabban fog előfordulni, mint a 4, 0, 0 megoszlás. Az előbbi a legvalószínűbb, mert a legegyenletesebb és a legrendezetlenebb. A molekulák számának növe­kedésével a termodinamikai valószínűségek közötti különbség rohamosan nő. Kilenc molekula esetén a 9, 0, 0 és a 3, 3, 3 megoszlások gyakorisága már úgy aránylik egymáshoz, mint 1 az 1680-hoz.

Ha háromcellás rendszerünk 100 molekulát tartalmazna, a lehetséges mikroállapotok száma kb. lenne. Ha elfogadjuk, hogy minden mikroállapot egyenlő valószínűségű, a rend­szer végigmegy minden mikroállapoton, amelyek időtartama legyen 10-9 mp, akkor is 300 milliárd év telik el, ameddig mindegyik sorra kerül. (Egy köbcentiméter gázban nem száz, hanem kb. 3 · 1019 molekula van!) S mivel az egyenletesebb, rendezetlenebb megoszláshoz sok-sok nagyságrenddel több mikroállapot tartozik, mint a lényegesen rendezettebb álla­potokhoz, könnyen belátható, hogy rendszerünk, ha békében hagyjuk, nagyon hamar ilyen állapotba kerül, s nagyon ritkán és nagyon rövid időre távolodhat el észrevehető mértékben az ilyen állapotoktól.

A valóságban a dolgok természetesen nem ilyen egyszerűek. A részecskéket nemcsak térbeli helyzetük, hanem energiájuk stb. is jellemzi. A termodinamikai valószínűség meghatározása sokkal bonyolultabb. A lényeget azonban a fenti leegyszerűsített modell is jól tükrözi.

A magára hagyott rendszerben végbemenő makrováltozások a nagyobb termodinamikai valószínűségű állapotok felé vezetnek. A fenomenologikus termodinamika fogalmaival kifejezve a magára hagyott rendszer entrópiája egy maximális érték felé közeledik. Az S entrópia és a W termodinamikai valószínűség közötti összefüggést Boltzmann képlete adja meg (ezt a képletet a síremlékére is felvésték):

                                    

ahol S = entrópia k = Boltzmann-féle állandó; w = termodinamikai valószínűség, vagy másképpen:

                                    

A mikroállapotok megvalósulásának valószínűségei csak akkor egyenlőek, ha energia­állapo­tuk egyenlő. Energiára nyitott rendszerekre Gibbs írta fel az általánosabb egyenletet:

                                    

ahol pi az i-edik mikroállapot energiafüggő valószínűsége. Zárt rendszerekben Gibbs képlete Boltzmann képletére egyszerűsödik. (Szinte magától kínálkozik a párhuzam a Hartley - Shannon összefüggéssel).

Az entrópia tehát a termodinamikai valószínűségen keresztül a rendezetlenséghez kapcso­lódik, s annak mértékeként fogható fel. S ha mármost a “termodinamikai valószínűség” kifejezést az “anyagi rendszer állapotának valószínűsége” kifejezéssel helyettesítjük, egy általánosabb entrópiafogalomhoz jutunk, amely alkalmas bármely tömegjelenség jellemzésére.

Az információ - mint láttuk - szoros kapcsolatban van a bizonytalansággal és a választással. Ahogy A. I. Akcsurin megfogalmazta: “Mindenütt, ahol különböző lehetőségek léteznek, amelyek közül csak egy realizálódik, van értelme információról beszélni, információról, amit a megvalósult lehetőség hoz magával”. (Akcsurin, 1965).

“Az entrópia a rendszer rendetlenségi fokának mértéke, míg az információ szervezettségének mértéke”, mondotta Norbert Wiener. Az információ, amikor a bizonytalanságot megszünteti vagy csökkenti, “rendet teremt”, növeli a rendezettséget, szervezettséget. S minél nagyobb egy rendszer rendezettsége, annál több információt szolgáltat.

Azt, hogy az entrópianövekedés információveszteséggel jár, szemléletessé tehetjük egy egyszerű példával. Egy gáztartályt választófal oszt ketté. A tartály egyik felében gáz van, a másikban vákuumot létesítünk. A kísérlet kezdetén tudjuk, hogy a gázmolekulák a tartály melyik felében vannak. Ha a válaszfalat eltávolítjuk, a molekulák az egész belső teret bejárhatják, s most már nem tudunk válaszolni arra a kérdésre, hogy hol vannak, a tartály jobb vagy bal felében. Ugyanez történik akkor is, amikor két gázt keverünk össze. A fal eltávolítása előtt tudtuk, hogy az A gáz molekulái a tartály jobb, a B gáz molekulái a bal felében vannak. Miután a válaszfalat eltávolítottuk, s a gázok összekeveredtek, csak azt tudjuk, hogy a tartály mindkét felében találunk mindkét gáz molekuláiból. A rendszerben entrópianövekedés és információcsökkenés ment végbe, s csökkent ennek következtében a rendszerről meg­szerez­hető információ. Az is világos, hogy a hőközlés, miközben növeli a rendszer entrópiáját, információveszteséget okoz, mivel a hőmozgás növekedésével csökken a rendszerbeli információ, s így a rendszerről megszerezhető információ is.

A két entrópia - a termodinamikai és shannoni információelméleti entrópia - azonossága ilyen­formán plauzibilisnek tűnik. Ahogy L. Gatlin megfogalmazta: “Shannon egyenlete kiemelte az entrópia fogalmát a termodinamika szűk keretéből, amelyben létrejött, és az általános való­színűségi eloszlások világába emelte.” (Gatlin, 1972). De vajon ez az összefüggés kifejezhető-e kvantitatíve, egzakt matematikai formában?

A kérdés gyökerei visszanyúlnak Maxvell “hírhedt” démonáig. A nagy fizikus The Theory of Heat című könyvében a következő gondolati kísérletét írta le:

“... ha elképzelünk egy olyan tökéletes képességekkel bíró lényt, amely minden egyes mole­kula pályáját követni tudja, akkor ez a mienkhez hasonló véges tulajdonságokkal rendelkező lény képes lesz arra is, ami jelenleg számunkra megvalósíthatatlan. Azt ugyanis tudjuk, hogy egy egyenletes hőmérsékletű levegővel teli edényben a molekulák korántsem azonos sebességgel mozognak... Tételezzük fel, hogy egy ilyen, két - A-val és B-vel jelölt - részre osztott edény válaszfalán kis lyuk van, melyet az egyes molekulákat érzékelni képes lény oly módon nyit és zár, hogy A-ból B-be csak a gyorsabban mozgó molekulákat engedi át, míg B-ből A-ba csak a lassúbbakat. Ezáltal, ellentmondásban a termodinamika második főtételével, munkabefektetés nélkül megnöveli B és lecsökkenti A hőmérsékletét”. A lényt a fizikusok csakhamar Maxvell “démonának” keresztelték el, mivel tevékenységével alaposan felforgatta a természet rendjét. Ha létezne, ha létezhetne egy ilyen lény, az emberiségnek nem lenne szüksége energiaforrásokra.

Sok fizikus viaskodott a “démonnal”, s próbálta bebizonyítani, miért nem képes a “démon” a Maxvell által leírt módon működni. Bizonyításaik azonban rendre mind tévesnek bizonyultak.

Szilárd Leó is “felvette a kesztyűt”. Tanulmányában ő mutatott rá először, hogy a démonnak (= értelmes lénynek) a molekulák szétválasztásához mérést kell végeznie, s bár a mérés valóban csökkenti a rendszer entrópiáját, ezt a csökkenést a mérés végrehajtását kísérő entrópianövekedés kompenzálja. Minden elemi mérés, amely egy elemi alternatívára adott válasznak felel meg, entrópiaváltozást eredményez (Szilárd, 1929).

Szilárd Leó dolgozata közzétételekor visszhangtalan maradt. Az információ még nem került az érdeklődés homlokterébe. Shannon tanulmányának megjelenése után azonban az entrópia és információ közötti összefüggés vizsgálata időszerűvé vált. A legalaposabban Léon Brillouin francia fizikus és az Angliában élt Nobel-díjas Gábor Dénes foglalkozott a kérdés­sel. Kimutatták, hogy a démonnak ahhoz, hogy megfigyelhesse a molekulákat, fényforrásra van szüksége. Olyan fényforrásra, amelynek hőmérséklete magasabb, mint a gázé (másképp nem észlelhetné a molekulákon szóródó fotonokat). A fény gerjesztése viszont entrópianövelő folyamat, s így a gáz entrópiacsökkenése csak a környezet entrópianövelésével valósítható meg. Brillouin a problémát általánosítva megállapította, hogy minden mérés, kísérlet révén nyert információ csökkenti a megfigyelt rendszerben a bizonytalanságot, határozatlanságot, tehát az entrópiát. Ezt az entrópiacsökkentést (a nyert információt) negentrópiának (negatív entrópia) nevezte el. (Az információ negentropikus elve). A negentrópiáért azonban negentró­piával kell fizetni. Amennyivel csökken a rendszer entrópiája, legalább annyival, de inkább többel nő a környezeté (Brillouin, 1954, 1962).

Idézzük magát Brillouin-t: “Számos kísérlet eredményeit vitattuk meg, és egy általános követ­keztetésre jutottunk: az információ negentropikus elvéhez, amely szerint a fizikai megfigyelés útján nyert információért mindig az entrópia laboratóriumi növekedésével fizetünk. Az entrópia általános növekedése nagyobb, mint az ugyanazon egység által befogadott infor­máció­­mennyiség”.

Valamely rendszer megfigyelésekor a megfigyelő kölcsönhatásba lép a rendszerrel, s ez megváltoztatja a rendszer energiáját. Ez a kérdés azonban nem módosítja az előbb mondotta­kat.

És amikor már úgy tűnt, hogy végleg sikerült elkergetni a démont, s világossá vált az infor­mációs entrópia és termodinamikai entrópia közötti összefüggés, új bonyodalmak támadtak. A számítógépes adatfeldolgozás termodinamikai vonatkozásainak tanulmányozása arra a meg­lepő eredményre vezetett, hogy nem az információ átírása (ez a lépés felel meg a Szilárd-féle mérésnek vagy a démon által végzett megfigyelésnek), hanem a tár kiürítése az irreverzibilis folyamat. Idézzünk Charles H. Bennet cikkéből a Scientific Americanból: “Landauer bizonyí­tását a következő tétellel kezdi: a számítógép különböző logikai állapotait a gép hardverjének különböző fizikai állapotai kell, hogy megvalósítsák. Így például a számítógéptár minden lehetséges állapotát más fizikai elrendezés képviseli (azaz más áramfeszültség- és mező­értékek és így tovább).

Tegyük fel, hogy kitörlünk egy n bites tárregisztert, vagyis más szavakkal: a tár minden egyes helyének értékét, függetlenül korábbi értékétől nullára állítjuk be. A művelet megkezdése előtt a tár egésze 2n darab állapot valamelyikében lehetett. A művelet elvégzése után a tár csak egyetlen állapotban lehet. A művelet tehát a sok logikai állapotot eggyé sűrítette össze, hasonlóan ahhoz, ahogy a dugattyú sűríti a gázt.

Landauer kiindulópontja szerint a számítógép logikai állapotának sűrítéséhez fizikai állapotát is sűríteni kell, vagyis csökkenteni kell hardverjének entrópiáját. A második főtétel szerint a hardver entrópiájának csökkentése csak úgy hajtható végre, hogy egyidejűleg megfelelő mértékben növeljük a számítógép környezetének entrópiáját. Ennélfogva nem törölhetünk ki egy tárregisztert anélkül, hogy eközben ne keltenénk hőt, és azt ne adnánk hozzá a környezet entrópiájához. A tár törlése termodinamikailag irreverzibilis” (Bennet, 1987).

A démonnak tehát nem egy új molekula megfigyeléséhez, hanem a régi eredmény elfelejté­séhez van szüksége termodinamikai befektetésre (feltételezve, hogy a démon memóriája véges kapacitású). A logikus következtetés: az információnak negatív értéke is lehet. A kérdést részletesebben Bennet egy korábbi írásában tárgyalja (Bennet, 1982).

Az információ tehát nem más, mint negentrópia, az entrópia pedig negatív információ, információhiány, a rendszer tényleges állapotára vonatkozó információ hiánya.

Az információ és az entrópia közötti számszerű összefüggést a szorzótényező adja meg:

                                    

Az információ-entrópiaegyenértékét a következőképpen adhatjuk meg: a legegyszerűbb ter­mo­dinamikai rendszer, melyre a shannoni egyenletet alkalmazhatjuk, egyetlen molekulát tartalmaz, amely két egyforma rekesz valamelyikében tartózkodhat, s mindkét rekeszben azonos valószínűséggel fordulhat elő: Ennek a rendszernek az entrópiája:

                                    S = -k ln 2 joule/kelvin = 10-23 joule/kelvin



Mivel egy ilyen bizonytalanság feloldásához 1 bit információ szükséges, következik, hogy 1 bit információhoz 10-23 joule/kelvin entrópiaváltozást lehet társítani.

Természetesen ezt a számot csak határértéknek tekinthetjük, hiszen minden konkrét esetben a körülmények döntik el, hogy ma az információnyereségért mennyi negentrópiával kell fizetnünk. (Rendszerint az egyenértéknél többet).

Hogy az információelméleti és termodinamikai entrópia közötti viszonyt kézzelfoghatóbbá, világosabbá tegyük, hívjuk segítségül az információfüggvények a 13-as képletben kifejezett tulajdonságát:

                                    

A statisztikus termodinamika a rendszert felépítő elemi összetevőkkel számol, amikor viszont a rendszert információelméleti szempontból vizsgáljuk, az elemeket tetszőleges, tőlünk függő szinten határozzuk meg (lehetnek többé-kevésbé összetett részrendszerek, nagyszámú termodinamikai “jel” halmazai), s így az előbbi összefüggés értelmében a rendszer entrópiája kisebb lehet, mint az elemi összetevőkből álló rendszeré. Ezzel magyarázhatjuk, hogy egy írott szöveg entrópiája sokkal kisebb, mint a tintáé, amely a betűket hordozza (Atlan, 1975). A DNS molekulát alkotó nukleotidok (l. A genetikai információ c. alfejezetben) információ­tartalma jóval kisebb (2 bit nagyságrendű), mint a termodinamikai entrópiája, mivel előbbit a 4 nukletoid szintjén számítjuk, utóbbit az energetikai mikroállapotok szintjén.

A két entrópia közötti összefüggés lehetővé teszi, hogy az információt a fizikai mennyiség státusával ruházzuk fel. S az a tény, hogy híres fizikai paradoxonokat sikerült a segítségével megoldani (Maxvell démona, Szilárd jól sikerült hőgépe), bizonyítja, hogy az összefüggés nemcsak formai. Végül is mind a két elmélet elemi részekből álló rendszerek valószínűségi leírásával foglalkozik. És az S függvényt úgy is felfoghatjuk, mint a H függvény sajátos esetét.

Nagyon kicsi szám ez a 10-23. Azt gondolhatnánk, hogy gyakorlatilag el is hanyagolható. Valamikor így is volt. Amikor a társadalom információs csatornáin kevés hír áramlott, s az is lassan, nem volt érdekes, mibe kerül. Napjainkban azonban, s még inkább holnap, az információs társadalomban, amikor minden pillanatban a bitek trilliói áramlanak a világ egyik sarkából a másikba, s amikor a klasszikus nyersanyag- és energiaigényes technológiákat mindinkább az információigényes technológiák váltják fel, ez a kis szám is nagyon fontossá válik. (A tömeg-energia ekvivalencia is csak akkor vált gyakorlatilag fontossá, amikor az atommag energiájának felszabadítása napirendre került.)

S Brillouin és Atlan azt is bebizonyította, hogy mikroszkopikus biológiai rendszerekben, ame­lyekben igen nagy mennyiségű információ közlekedik, ez az egyenérték nem elhanyagolható a rendszerek energiamérlegében (Brillouin, 1954, Atlan, 1975).

Az entrópia-információ átválthatóságának lehetősége egyes szerzőket merész, már-már a tudományos-fantasztikus irodalom területére kívánkozó hipotézisek felállítására késztette. M. M. Tribus és E. C. McIrvine kiszámította, hogy az elektromágneses sugárzás, amelyet a Nap juttat a Földre, a két égitest hőmérséklet-különbsége alapján negentrópiába átszámítva másodpercenként 1038 bit információ gerjesztését tenné lehetővé. Ha ezt a mérhetetlen tömegű információt az emberi tevékenységben hasznosítanánk, megoldódnának az emberiség anyagi gondjai (Tribus - McIrvine, 1971).

Ha jobban belegondolunk, nem is olyan fantasztikus a hipotézis. Hiszen tény, hogy Földünkön a Nap által biztosított negentrópia-fluxus egyre jobb hatásfokkal hasznosul. Az élet, majd a tudat megjelenésével kicsi világunk a szervezettségnek, a rendezettségnek egyre magasabb fokára jutott. Az ember minden új alkotása, minden új ismeret a rendet növeli. A kutató meg­figyelések, mérések útján információkat gyűjt valamilyen jelenségről. Ezeket az információkat feldolgozza, kapcsolatot, megfeleléseket állapít meg közöttük, s addig ismeretlen természeti törvényt határoz meg. A törvény alapján a mérnök új gépet konstruál, ami eddig nem létezett, s amit a természet soha nem hozott volna létre, mivel termodinamikailag instabil. Főleg az elmúlt száz évben gyorsult fel az ismeretek nagyfokú felhalmozódásával a negentrópia-növekedés. Természetesen a mérleg másik serpenyőjében ott találjuk a másik folyamatot az entrópia-növekedést. Azt a paradoxonnak tűnő megállapítást kockáztatjuk meg, hogy Földünk “emberszférájának” mint rendszernek az entrópiája csökken, de a részrendszereiben fellépő entrópia-növekedések ezt a csökkenést állandóan veszélyeztetik. Ilyen szemszögből vizsgálva világossá válik az emberi tevékenység Janus-arcúsága. Míg egyik oldalon növeli a rendet, a negentrópiát, a másik oldalon a nyersanyag- és energiakészletek felélésével, a környezet megfordíthatatlan károsításával, a háborús pusztításokkal az entrópiát növeli. Az emberiség­nek mind nagyobb árat kell fizetnie azért, hogy ne a részrendszerek entrópianövelő tendenciái kerüljenek túlsúlyba. S itt kap óriási szerepet az információ. Az információs technológiák széles körű alkalmazásával lehetővé válik a társadalmi folyamatok ésszerűbb negentropikus irányítása. Ha Tribusék sok nagyságrenddel tévedtek, még akkor is van bőven, információ­tartalék.

Az igazság kedvéért azonban azt is meg kell mondanunk, hogy nem mindenki ért egyet a termodinamikai és információelméleti entrópia azonosításával. K. Denbigh véleménye szerint Neumann János nagyon rosszul tette, hogy Shannonnak az entrópia elnevezést javasolta. A tudomány ennek csak kárát látta (Denbigh, 1982).

Collin Cherry szerint az entrópia matematikai fogalom, alkalmazásának szabályai pontosan meg vannak határozva. Csak leíró módon a rendetlenség mértéke, s ugyanúgy leíró módon az információ az ellentéte, rendet visz a rendetlenségbe. Olyan, “mint” a negatív entrópia. De minden hasonlóság csak a képletek között van. És ami a kutatást illeti, a mikroszkópba néző tudós nem hasonlít a telefonon beszélgető emberhez. A Természet Anya nem jelek vagy nyelv segítségével kommunikál velünk (Cherry, 1966).

Jeffrey S. Wicken úgy véli, hogy bár mind a shannoni, mind a boltzmanni egyenlet a bizony­talan­ságot fejezi ki, a kétféle bizonytalanság gyökeresen különbözik egymástól. Míg a statisz­tikus termodinamikában a bizonytalanság a rendszer alapvető sajátossága, sohasem tudhatjuk, hogy éppen melyik mikroállapotban van, mivel sztochasztikusan fluktuál a lehetséges mikroállapotok között, addig az információelméletben a bizonytalanság nem ilyen értelemben játszik szerepet. Azt fejezi ki, hogy egy adott üzenet egy a lehetséges üzenetek közül, amelyeket a jelrendszer elemeiből össze lehet állítani. Miután az üzenet összeállt, a bizony­talanság megszűnik. A termodinamikában a makroállapot a mérhető realitás, a mikro­állapot nem mérhető elméleti konstrukció, az információelméletben - amelyben egyébként nem léte­zik a makroállapot - mikroállapot dichotómia - a mikroállapotnak megfelelő üzenet a mérhető konk­ré­tum, s az elképzelhető üzenetek összessége az elméleti konstrukció. Az entró­piának csak a termodinamikában van értelme, jelentése. Shannon képlete nem ezt, hanem a struktúra kapcsolatainak komplexitását méri. Wicken véleménye szerint az olyan kifejezések, mint “rendezetlenség”, “szervezetlenség”, csak elködösítik az entrópia fogalmának tisztaságát (Wicken, 1987).

Ezek a vélemények ugyanakkor igazolni látszanak Neumann Jánost: az entrópia nem is olyan világos fogalom.



A információfüggvény időbeli változásával, az információ és idő összefüggésével is sok szerző foglalkozott. Brandon például a nem egyensúlyi termodinamika fogalmait alkalmazta az információelméletben. Brillouin negentrópia elvére alapozva, az entrópia-termelés sebes­ségét, mint az információ-termelés sebességét fejezte ki. Ez utóbbi pozitív, amikor az alábbi negatív. Ezen az alapon sikerült meghatározni az információtermelés sebességét egy élő membránban:

                                    

ahol a C0, C1 = az áramlás által fenntartott stacionárius állapot alacsonyabb és magasabb koncentrációja.

Atlan javasolta, hogy az információtermelés becslését használják fel a biológiai idő mérésére egy szervezeten belül, környezetének fizikai idejéhez viszonyítva. (Atlan, 1975).




Download 8.26 Mb.

1   ...   6   7   8   9   10   11   12   13   ...   47




Download 8.26 Mb.

Bosh sahifa
Aloqalar

    Bosh sahifa



Eötvös Loránd Tudományegyetem Könyvtártudományi Informatikai Tanszék Fülöp Géza Az információ

Download 8.26 Mb.