33. ábra. Chappe optikai telegraphja.
A karok mozgatásával 196 különböző mértani alakzatot lehet kialakítani. Az állomások a domborzati viszonyoktól függően 4-15 km távolságra voltak egymástól, s egy harminc szavas üzenet Lille-ből Párizsba egy óra alatt jutott. Egy jel néhány perc alatt futotta be ezt az utat. A rendszer az 1840-es évek közepéig volt szolgálatban. Hasonló rendszerű telegráf működött Poroszországban 1832-1849 között és Angliában 1827-től szintén a negyvenes évek közepéig.
Alig néhány évvel Galvani felfedezése után megszületett az első elektromos telegráf ötlete (Salva y Campillo). A következő években az elektromossággal foglalkozó fizikusok közül sokan dolgoztak ki valamilyen, az áram hatásán alapuló távközlési rendszert, különösen az áram mágneses hatásának felismerése után. Hogy csak néhány nevet említsünk: Ampère, Gauss, Cooke, Wheatstone. Ezek azonban mind csak technikatörténeti érdekességek.
Korszerű elektromos távközlésről, információátvitelről attól a pillanattól beszélhetünk, hogy Morse zseniálisan egyszerű és gyakorlatias távíróján leadta első pontokból és vonásokból álló üzenetét. A bemutató 1837. szeptember 4-én a New York-i egyetemen volt, 1838. április 6-án a Committee of Commerce nagyon kedvezően véleményezte a találmányt. 1843 márciusában a Kongresszus megszavazta a megfelelő alapot, s 1844. május 24-én Washington és Baltimore között megtörtént az első üzenetváltás. A hálózat a vasúttal párhuzamosan épült ki, s kezdetben főleg a közlekedés biztonságát szolgálta. Az Egyesült Államokban 1849-ben már 18.000 km volt a távíróvonalak hossza.
34. ábra. Morse első távírója.
Hogy akkor mennyire ismert volt már az elektromágneses telegráf és Morse neve, azt bizonyítja Cooper Tengeri oroszlánok című, 1849-ben írt regénye, amelyben ezt olvashatjuk: “Ha Morse harminc évvel hamarabb elkészítette volna nagy találmányát...”
Az üzenetek továbbításának lehetősége új vállalkozások megjelenéséhez vezetett. A hír árujellegét és értékét felismerő vállalkozók egymás után alapították a hírügynökségeket; 1835 Párizs: Agence Havas (már a távíró feltalálása előtt működött, a külföldi lapok jelentéseiről tájékoztatta a francia sajtót, később távirati hírszolgálattal bővült, 1848 New York: Associated Press; 1849 Berlin: Wolff’s Telegraphenbüro (WTB); 1851 London: Reuter’s Telegram Company.
A következő állomás Bell telefonja volt 1876-ban. (Közben 1866-ban lefektették Európa és Amerika - London és New York - között az első interkontinentális tengeralatti távírókábelt.) A század elején a távközlés - a szikratávíró, majd a rádió feltalálásával - függetlenítette magát a vezetéktől. A hanginformációk után a század harmincas éveiben a képi információt is sikerült az “éter hullámaira” bízni. Hatalmas lépést jelentett a távolság legyőzésében az első hírközlő műhold pályára állítása 1958-ban. (Ma már több mint kétszáz polgári célokat szolgáló műhold “ragyog” az égen.)
Az első műholdak még nagyon kis teljesítménnyel (5-40 W) sugározták vissza a kapott jeleket, s ún. periodikus pályán keringtek (a műhold és a Föld egymáshoz viszonyítottan eltérő szögsebességgel mozog). Ezért a vételhez nagyméretű (12-30 m-es) parabolaantennákra volt szükség, amelyeknek folyamatosan követniük kellett a láthatáron periodikusan fel- és eltűnő műholdat. A hetvenes évek második felében jelentek meg az ún. geostacionárius műholdak. Ezek szinkronpályán mozognak, azaz együtt keringenek a Föld valamelyik pontjával (keringési idejük pontosan 24 óra), állni látszanak, s így az antennát hold irányában rögzíteni lehet. Egy szinkron műhold akár 10 millió km2 területet besugározhat. A stacioner helyzet azonban csak akkor biztosítható, ha a műhold az egyenlítő síkjában van. Ezért a Sarkok közelében periodikus pályán keringő műholdakra is szükség van. Teljes idejű távközlés ezekkel csak úgy biztosítható, ha több műhold mindig egymáshoz képest meghatározott távolságra van.
Az évek során a műholdak teljesítménye mind nagyobb lett (csatornánként 250-500 W), s így ma már kisméretű antennákkal is vehetővé vált. A műholdak közelebb hozzák az országokat, földrészeket. Jelentőségüket növeli, hogy a műsorszórás mellett a szolgáltatások egész sorát teszik nemzetközivé, sőt világméretűvé (telefon, távíró, távmásolás, távkonferencia).
A távközlés az elmúlt évszázadban mind minőségileg (pontosság, megbízhatóság, gyorsaság), mind mennyiségileg (a csatornák kapacitásának növekedése, újabb és újabb csatornák felhasználása - a rádió esetében például a hosszú-, majd a középhullám után a rövid- és az ultrarövidhullámok és újabban a GHz-es mikrohullámok felhasználása) mérhetetlen fejlődésen ment keresztül, eleget téve az emberiség rohamosan növekvő kommunikációs igényének. Új médiumok, új kommunikációs technikák jelentek meg, amelyek egyre inkább részévé válnak az egyén, a társadalom hétköznapjainak. Fejlesztésük a legkomplexebb tevékenységek egyike, a társadalmi élet számos területén alkalmazhatók a távközlés különböző formáitól a képernyős szolgáltatásokon keresztül a számítógép és videotechnika használatáig.
A fejlődés az utóbbi években érdekes módon visszavezetett - természetesen jóval magasabb szinten - a “drótos” távközléshez. Napjainkban tanúi lehetünk a kábeles információtovábbítás térhódításának. Hogy miért tértek vissza a hírközlésben a kábelen történő átvitelre, annak több oka van. Egyik oldalról a műsorszóró adók számának szaporodása és teljesítményük növekedése miatt a közép- és rövidhullámon a tér telítődött, s állandóan nemzetközi egyeztetésekre van szükség a zavartalan vétel biztosítására. A legkisebb eltérés a megállapodásoktól vagy különlegesebb légköri változások elkerülhetetlenül zavarokhoz vezetnek. Az ultrarövid-hullámú átvitel pedig - amely ugyanakkor alkalmas összetettebb, bonyolultabb kommunikációk sugárzására (minőségi hangátvitel, képátvitel) - a terjedés sajátosságai miatt vet fel megoldhatatlan problémákat. Ugyanakkor az egyre növekvő számú villamos berendezés - ipari, közlekedési, háztartási készülék - a zavaró jelek olyan mennyiségét bocsátja ki, amelynek a teljes kiküszöbölése lehetetlen. Másik oldalról a tömegkommunikációval szemben támasztott igények egyre inkább individualizálódnak, s ezek kielégítésére a sugárzó információs források alkalmatlanok. A kábeles hálózaton való információtovábbítás - ha majd elterjedése a tömeges kommunikáció feltételeit biztosítja - az egyéni érdekek és igények kielégítésére is alkalmas lesz.
Különösen nagy lendületet adott a kábeles hírközlés terjedésének a száloptika fejlődése.
Bár a fényt az emberiség ősidőktől fogva felhasználta kommunikációs célokra, az információs társadalom megalapozásában fontos szerepet játszó alkalmazása 1970-ben kezdődött, kis veszteségű kvarcüvegből készült fényvezető szálak előállításával (Corning Glass Works) a GaA1As/GaAs félvezető lézerdiódával (Bell Laboratorium), amely alacsony hőmérsékleten folyamatosan bocsátja ki a szükséges homogén, koherens, modulálható fénysugárnyalábot.
Az információátvitelre általában kétféle hullámhosszat alkalmaznak: a 0,7-0,9-es rövid- és az 1,2-1,6 m-es hosszúhullámot. A műanyag burkolatú üvegszálak -, s újabban a különleges műanyag szálak - olyan tulajdonságokkal rendelkeznek, amelyek folytán belátható időn belül ki fogják szorítani a fémkábeleket. Az elérhető sávszélesség a fény magas frekvenciája miatt sokszorosa (10-20-szorosa) a fémkábeleken elérhetőnek, az átviteli sebesség, s így az átvehető információmennyiség ennek megfelelően nő. Az átvitelt külső hatások nem zavarják, tehát nem is zavarható, nem lehet “lehallgatni”. A csillapítás, a veszteség nagyon kicsi (az 1,5 m hullámhossznál például 0,3-0,6 dB/km), s így nagy sebességű digitális jelátvitelnél 40-50 km-t is át lehet hidalni erősítés nélkül. Az üvegszál rendkívül könnyű és vékony, tehát nagyon sok szálat lehet egy kábelbe összefogni. A korrózió nem támadja meg, ezért hosszabb életű, ritkábban hibásodik meg, s kell kicserélni.
A száloptikai átvivőrendszer működéséhez természetesen nagyon sok építőelemet kellett kialakítani (érzékelők, detektorok, csatlakozók, elosztók stb.). Ma már ezek olyan szinten vannak, hogy tökéletes átvitelt tudnak biztosítani, s világszerte megindult a fénykábeles hálózatok kiépítése. A helyi hálózatok mellett kiépülnek a távvezetékek is. 1985-ben például Anglia és Belgium között tengeralatti kábelt fektettek le, s az Egyesült Államokban New York és Los Angeles között 1987 elején üzembe helyezték az első transzkontinentális kábelt, amelyen át bonyolítják le a hang- és képátvitelt.
(Bár még az optikai szál is újdonságnak számít, s jóformán csak most kezdi pályafutását, a láthatáron már feltűnt a “konkurencia”. Laboratóriumi kísérletekkel megállapították, hogy a szupravezetőkből készült huzalokon az információk százszor gyorsabban továbbíthatók, s 1015 bit/s adatátviteli sebesség is elérhető. Ez azt jelenti, hogy ugyanazon a vezetéken 15 millió telefonbeszélgetés folytatható egy időben, s mivel a fénykábelektől eltérően, az elektromos impulzusokat nem kell át- és visszaalakítani, az átvitel veszteségmentes. A gyakorlati hasznosításig természetesen még sok kérdést kell megoldani.)
Korunk hírközléstechnikájának másik jellemző vonása a digitális hírközlés térhódítása, jóllehet a hálózatok egy részét - a telefonvonalakat például - közvetlenül az ember használja, az ember pedig analóg jelek kibocsátására és vételére van “programozva” (beszédünk a legtipikusabb analóg jelfolyam). Kétszeres átkódolásra van tehát szükség, de megéri, mivel a digitális rendszer gyakorlatilag érzéketlen az átviteli csatorna torzításaival, zajaival szemben. A digitális jeleknek kevés jellemzőjük van, s így a vételi oldalon könnyen rekonstruálhatók. Emellett a félvezető eszközök ideálisan alkalmazhatók kétállapotú üzemmódban.
A digitális technika elterjedése -, s minden valószínűség szerint majdani egyeduralma - lehetővé teszi mindenfajta információ közös nevezőre hozását, a legkülönbözőbb rendszerek összekapcsolását.
Végeredményben az elmúlt évtizedekben a távközlésben ez a három megvalósítás teremtette meg a feltételeket az információs társadalomba való átmenethez: a távközlési műholdak, az optikai kábelek és a digitális technika. (A híradástechnika történetét legújabban Aschoff dolgozta fel [Aschoff, 1987].)
A mesterséges intelligencia
A számítógép-tudomány egyik legdinamikusabban fejlődő, legizgalmasabb ága a mesterséges intelligencia kutatása.
Idézzük, mintegy mottójaként ennek a fejezetnek, Jean-Louis Laurière-nek, a Marie Curie Egyetem tanárának szavait: “Ugyanakkor a MI Kopernikusz és Darwin alapvető forradalma után magával hozza az ember természetben elfoglalt helyének újraértékelését. Valóban nem kevesebb, mint az intelligencia monopóliuma az, amit most elvitatnak.” (Laurière, 1987).
A kopernikuszi hasonlattal él Klaus Haefner is: “Az információ műszaki feldolgozásának feltalálásával és egyre szélesebb körű alkalmazásával az információtechnika az emberi agy mellé lép. A folyamat második kopernikuszi fordulatot valósít meg: míg az első fordulat során az emberi szellem felismerte, hogy a Föld nem a világmindenség középpontja, hanem - mai tudásunk szerint - egyetlen bolygó naprendszerek milliárdjainak egyikében. Addig a második kopernikuszi fordulatban az emberi agy belátja, hogy az agy, mint információk feldolgozója, sok más lehetséges ilyen mellett csak az egyik struktúrát jelenti, hasonló teljesítményeket - legalábbis számos részterületen - technikai rendszerek is képesek nyújtani. Az agy elveszti monopóliumát az információfeldolgozás területén, technikai struktúrákkal lép versenybe” (Haefner, 1990).
Az elektronikus számítógépet megalkotói már eleve arra szánták, hogy olyan műveleteket végezzen el, amelyeket az ember a fejével végez, ám életének első 20-25 évében csak arra volt képes, hogy a rutinszerű, könnyen algoritmizálható feladatokat végrehajtsa.
A legjobb szakemberek már kezdettől fogva arra törekedtek, hogy komolyabb munkára fogják a “buta óriást”. Warren Weaver 1946-ban felvetette a lehetőségét annak, hogy a számítógépet fordításra használják. Ő és Donald Booth olyan módszerre gondolt, mint amilyennel a titkosírásokat fejtik meg. A betűk és szavak gyakorisága alapján, tehát pusztán formális alapon akarták megoldani a feladatot (Bonnet, 1984). Shannon pedig 1949-ben javasolt egy módszert sakkozó program kidolgozására.
A mesterséges intelligencia kutatása önálló diszciplínaként 1956-ban jelentkezett, akkor tartották Dartmouthban az első konferenciát. Megindultak az első intenzív kutatások a kognitív magatartásformák számítógépes “tározására”, és sikerült is valamelyes - a befektetett munkához képest igen csekély - eredményeket elérni. (Az első sakkozóprogram 1957-ben látott napvilágot, s fordítóprogramokat is dolgoztak ki, kis túlzással szólva Karinthy Herz-szalámijának szintjén.) 1958-ban a Nobel-díjas Herbert Simon azt jósolta, hogy hat éven belül számítógép lesz a sakkvilágbajnok, és tíz éven belül megjelennek a kiváló fordítóprogramok. Harmincöt év telt el azóta, de még egyik célt sem sikerült elérni.
A hatvanas évekre az érdeklődés ezek iránt a problémák iránt alaposan megcsappant. Kiderült ugyanis, hogy a számítógépből nehéz zseniális sakkozót “nevelni”, de a leghétköznapibb helyzetek megoldására még nehezebb “megtanítani”.
Csak mintegy tíz év múlva indultak meg újra, a határtudományokban - lélektanban, nyelvészetben, neurobiológiában - elért eredményekre támaszkodva, most már egyre nagyobb intenzitással a kutatások azokon a területeken, amelyeket a mesterséges intelligencia fogalomkörébe sorolunk. Különösen a kognitív pszichológiában elért eredmények vitték előre a mesterséges intelligencia-kutatást, ahogy Darab Tamás írja: “a mesterséges intelligencia kutatása és a kognitív pszichológia szemmel láthatóan egymással kölcsönhatásban fejlődnek. Míg az utóbbi tudomány művelői a számítógép működéséről szerzett újabb ismeretek figyelembevételével dolgozzák ki elméleteiket, addig a mesterséges intelligencia kutatói pontosan ezen elméletekből kiindulva minél inkább intelligens módon működő számítógépeket próbálnak létrehozni” (Darab, 1991).
A mesterséges intelligencia tudósai közül meg kell említenünk Herbert A. Simont és Allen Newellt (Simon, 1982, Newell - Simon, 1982).
A mesterséges intelligencia kutatása sok pászmán halad. A két legfontosabb irányzat: az egyik az emberi gondolkodás lényegét a szimbólumok manipulálásában véli felfedezni, és a gondolkodás szigorú logikán alapuló szisztematikus vonásait igyekszik “utánozni”. A másik irányzat pedig az idegrendszer működéséből indul ki, és mesterséges neuronhálózatok segítségével próbálja azt szimulálni. Mindkét irányzat értékes eredményekhez vezetett, ám egyelőre egyiknek sem sikerült a maga elé tűzött feladatokat, az intelligens emberi viselkedés “gépesítését” megoldani.
Mit értünk mesterséges intelligencián?
A kérdésre azért is nehéz válaszolni, mert a természetes emberi intelligenciának, “a lélektan egyik legvitatottabb fogalmának” (Kulcsár - Szamosközi, 1988) sincs még pontos meghatározása. A köznapi életben nagyfokú egyetértéssel állapítjuk meg valakiről, hogy intelligens, sőt össze is tudjuk mérni másokkal, s közben - kis túlzással - fogalmunk sincs róla, hogy miről beszélünk. Legfeljebb néhány összetevőjét tudjuk felsorolni, olyan tulajdonságokat, amelyekről feltételezzük: szükségesek ahhoz, hogy az emberi magatartást, viselkedést intelligensnek mondhassuk. (Az intelligencia bizonyos mennyiségű tudást már eleve feltételez. Ilyenek: a problémamegoldó képesség, az absztrahálás és általánosítás képessége, az analógiák felismerése különböző szituációkban, az alakfelismerés, a nyelv megértése és helyes használata, az alkalmazkodás váratlan új helyzetekhez, a tanulás képessége, saját hibáink felismerése és kijavítása. (Utóbbiról írta Alain Bonnet, hogy ha ezt a kritériumot nagyon szigorúan vennénk, igen kevés emberre mondhatnánk, hogy intelligens.)
Ezek után hogyan határoznánk meg a mesterséges intelligencia fogalmát és kapcsolatát a természetes intelligenciával?
Elsősorban szögezzük le, hogy a mesterséges intelligencia (MI) lényegében a számítógép-tudomány viszonylag új alkalmazási területe. Ahogy Mihaela és Mircea Malita fogalmazott: “Az ismeretek és technikák összessége, amelyek segítségével a számítógépet alkalmassá tesszük olyan műveletek elvégzésére, amelyeket az emberre vonatkoztatva intelligensnek nevezünk” (Malita - Malita, 1987).
Ha mármost figyelembe vesszük azt, hogy az algoritmizálható szellemi tevékenységek a számítógép konvencionális rutinfeladatai, akkor a mesterséges intelligenciára a következő meghatározást adhatjuk: olyan fejlett szoftverkészlet (programrendszer), amely nem-determinisztikus problémák osztályára alkalmazható. Azok a problémák tartoznak ide, amelyekre nem dolgozható ki algoritmus, vagy ha igen, a lépések száma túllépi a kombinatorikai robbanás határát, továbbá azok, amelyek megoldásához hiányos, esetleg pontatlan információkkal rendelkezünk. (Hogy csak két “játékos feladatot” említsünk, egy átlagos sakkjátékban a lehetséges állások száma 10120, a bridzsben pedig nem ismerjük a többi játékos lapját.)
Ami pedig a természetes és mesterséges intelligencia közötti kapcsolatot illeti, a szakemberek, pszichológusok, fiziológusok, informatikusok még nem tudták eldönteni a kérdést, hogy van-e valamilyen egyezés a számítógépben lezajló folyamatok és az ember kognitív folyamatai között.
Az a tény, hogy bizonyos mentális funkciókat géppel tudunk elvégeztetni, azt jelzi, hogy az emberi agy és az MI néhány funkcionális paramétere között alapvető hasonlóság van, de nem bizonyíték a természetes és mesterséges intelligencia azonosságára (Meyer, 1987).
Egyáltalán, mikor mondhatjuk azt, hogy egy gép intelligensen cselekszik? Ennek a kérdésnek az eldöntésére Allan Turing angol matematikus dolgozott ki egy tesztet. Lényege: egy gép akkor cselekszik intelligensen, ha az emberi felhasználót - aki terminálon keresztül beszélget vele - meg tudja győzni, hogy partnere nem gép. A számítógép nem azzal győz meg “intelligenciájáról”, hogy megnyer egy sakkjátszmát (erre viszonylag könnyű megtanítani), hanem azzal, hogy meggyőző módon tud veszíteni (Bryant, 1988).
Egyébként is, ahogy Rafael Capurro hangsúlyozza, az intelligens rendszerek kidolgozásánál nem arra kell törekedni, hogy az emberhez hasonlítsanak, mivel az “emberi elme” fogalma sokkal gazdagabb és szélesebb, és nem redukálható az intelligencia fogalmára (Capurro, 1985).
Don Thomasson véleménye szerint az intelligencia egy fontos, alapvető sajátossága, hogy váratlan helyzetekre megfelelő, hasznos válaszokat ad. Ilyen értelemben a szakértői rendszereknek nincs intelligenciájuk. Nem valószínű, hogy sikerül eredeti gondolkozású MI-rendszert létrehozni. A számítógépnek nincs véleménye, nincsenek érzelmei. Lehet arra programozni, hogy tanuljon, de az ember akar tanulni (Thomasson, 1988).
Searle pedig megállapította, hogy csak az “Én” képes gondolkozni, a számítógépnek azonban nincs “Én”-je, ezért csak szimulálhatja a gondolkodást (Searle, 1983).
Vagy ahogy Mérő László írja: “Ha a mesterséges intelligencia 30 éves történetének tanulságait akarjuk összefoglalni, azt mondhatjuk, hogy az értelem az eddig kidolgozott rendszerek egyetlen szintjén, egyetlen komponensében sem érhető tetten ... Minden esetben a felhasználó az, aki az értelmet belevetíti a mesterséges intelligencia termékeibe” (Mérő, 1990).
S talán P. Arnhem véleményét sem hagyhatjuk figyelmen kívül: a biológiai intelligencia a fejlődés terméke szorosan kapcsolódik a szervezethez, amelyet szolgál. Az élet, úgy tűnik, előfeltétele az intelligens elmének, s három és fél milliárd évre volt szükség a kialakulásához (Arnhem, 1987).
Az ismeretek mai állása mellett tehát azt mondhatjuk, “hogy a mesterséges intelligencia szimulálja - több-kevesebb sikerrel - a természetes intelligenciát, anélkül hogy modellje lenne. Másrészről a mesterséges neuron és neuronhálózat-modellek csak korlátozottan alkalmasak az idegfolyamatok szimulálására. A szimulálás és modellálás fogalmát illetően a szakemberek körében eltérők a vélemények. Rosen szerint a szimulálás fogalma elszakíthatatlanul össze van kötve az eredetitől idegen, eltérő gép, eszköz, berendezés igényével, amely megvalósítja azt, s aminek nincs megfelelője a szimulálandó rendszerben. A szimulálással tulajdonképpen a szoftvert utánozzuk, a hardvert nem. A modellben viszont a hardver is tükröződik (Rosen, 1987).
Le kell szögeznünk azt is, hogy a MI-rendszerek nem univerzálisan intelligensek, csak bizonyos feladatokra nézve.
Ugyanakkor megállapíthatjuk, hogy amint az erőgépek túlhaladták az embert sok (nagymértékben specializált) fizikai tevékenységben, hasonlóképpen az információs gépek is túl fogják haladni sok (nagymértékben specializált) intellektuális tevékenységben.
A MI-kutatás a számítógép-tudomány (computer science) viszonylag önállósult interdiszciplináris területe, amely határtudományaival, lélektannal, filozófiával, nyelvtudománnyal, elektronikával, számítástudománnyal (computing science) szoros kapcsolatban fejlődött és fejlődik. A lélektanból a kognitív pszichológia, a pszicholingvisztika, a filozófiából a logika, a nyelvfilozófia, a gondolkodás filozófiája, a nyelvészetből a számítógépes nyelvészet, a pszicho- és szociolingvisztika, az elektronikából a robotika, a képfeldolgozás, a számítógép-tudományból többek között az adaptív rendszerek elmélete az a terület, amellyel az MI “metszetet” alkot.
Az intelligens rendszerek jellemző vonásai:
- elsősorban és főleg nem numerikus szimbólumokkal operálnak;
- a feladatokat nem pontos algoritmus alapján oldják meg, hanem heurisztikusan;
(A heurisztikáról ezt írja Pásztor Zoltán és Sántáné: “A heurisztika kifejezés hosszú idő óta kulcsszónak számít a mesterséges intelligencia területén. Jelentése azonban a különböző szerzőknél és különböző időpontokban más és más.” S a következő definíciót adják: “Tapasztalaton alapuló módszer, pl. egyszerűsítő feltevés vagy más hasonló eszköz, amely korlátozza vagy egyszerűsíti a megoldás keresését bonyolult, nagyméretű, illetve kevésbé megértett problémák feladatterében. Az algoritmusoktól eltérően a heurisztikák nem biztosítják az általuk szolgáltatott megoldás hibátlanságát” [Pásztor - Sántáné, 1987].)
- olyan tudáskészlettel rendelkeznek - a valóság adott szeletének modelljével -, amely az ember számára érthető, a tudásalap világosan el van választva a tudást felhasználó mechanizmustól;
- a rendszer képes megoldást találni olyan esetekben is, amikor nem állnak rendelkezésre a feladat megoldásához szükséges összes adatok (ez a feladat természetéből is következhet); ilyenkor a megoldás, a következtetés nem lesz teljesen biztos, sőt téves is lehet;
- a rendszer képes megoldani olyan feladatokat is, amelyekben az adatok egymásnak ellentmondók; ilyenkor az emberhez hasonlóan, azt a megoldást választja, amely leginkább összhangban van az ismereteivel;
- a rendszernek ha igényt tart az intelligens jelzőre - rendelkeznie kell a tanulás képességével is; erről, mivel a MI-kutatás egyik fontos témája, a későbbiekben bővebben beszélünk.
A MI-rendszerekben tehát a tudás- vagy ismeretbázis játssza a főszerepet. Abban különbözik a számítástechnika más területein alkalmazott konvencionális adatbázisoktól, hogy különböző típusú ismeretekből tevődik össze: a tárgyakra, az eljárásokra, a folyamatokra vonatkozó ismeretekből, az úgynevezett mindennapi (commonsense) tudásanyagból, a célokra, szándékokra, motivációkra, okozati összefüggésekre vonatkozó információkból. Az ismeretek ilyen széles skálájának megragadása, ábrázolása, strukturálása úgy, hogy minél pontosabb megfelelés legyen a való világ és az ismeretbázis között, és alkalmas legyen a szükséges műveletek elvégzésére, bonyolult feladat. (Hogy a megfelelő forma milyen fontos, azt a tudománytörténet bizonyítja. A rómaiak számírásuk miatt nem váltak jó matematikussá.), s a bázishoz hozzá kell rendelni egy olyan szabályrendszert, amelynek segítségével az explicit tudásanyagból következtetések útján ki lehet bontani a benne rejlő implicit tudást.
Egy ilyen kijelentő mondat például, hogy “János falura utazott”, ebben a formában a számítógép számára csak jelsorozat, amelyből nem tud következtetéseket levonni, választ adni olyan kérdésre, hogy ki utazott el? hová utazott? A mondatot valamilyen formában fel kell bontani. Például így:
Cselekvés:
|
utazás
|
Cselekvő:
|
János
|
Cél:
|
falu
|
Idő:
|
múlt
|
Az elmúlt húsz évben nagyon intenzív kutatómunka folyt az ismeretábrázolás területén, sok érdekes eredmény született, és még több a megoldásra váró probléma. Bár Allen Newell és Herbert Simon kidolgozta az Általános Problémamegoldó Programot (G. P. S.), amely matematikai tételeket bizonyított, sakkozott, stb. bebizonyosodott, hogy az általános célú intelligens rendszert nem lehet kiépíteni. A világ túl bonyolult ahhoz, hogy egy véges terjedelmű rendszerbe minden részletét be lehessen gyömöszölni, s ha valaki mégis megpróbálkozna vele, a rendszer akkor is csak triviális kérdések megválaszolására lenne alkalmas, mert ahogy kissé bonyolultabbá válna, bekövetkezne a kombinatorikai robbanás. Az intelligens rendszerek tehát csak az élet egy szűkebb területét tudják átfogni. Az ismeretalappal kapcsolatban azonban még a legszűkebb területet tekintve is nehezen megválaszolható kérdések merülnek fel. (Nem beszélve arról, hogy a “tudás” fogalomkörének meghatározása is problematikus.)
A nehézségek elsősorban abból adódnak, hogy az emberi tudás túlnyomórészt nem a logika törvényeinek megfelelően helyezkedik el a memóriánkban, hanem heurisztikusan, az ismeretek sokszor bizonytalanok, nem teljesek, és belső ellentmondásokat is tartalmazhatnak. Részben ebből következően, részben abból, hogy egyetlen területnek sem lehet az ismeretanyagát pontosan körülhatárolni, s egyéb okokból is, a nem teljesség, az inkonzisztens jelleg, a pontatlanság, megbízhatatlanság nehezen vagy egyáltalán nem kiküszöbölhető tulajdonsága a bármely területről kialakított ismeretalapnak (Delgrande - Mylopoulos, 1986).
A tudásbázis felépítésének, a tudás reprezentálásának a kérdéseit, az ismeretalapú rendszerek alkalmazását tanulmányozza az ismerettechnológia (knowledge engineering).
Az utóbbi években sok eljárást, formalizmust dolgoztak ki az ismeretanyag leírására.
Az elsőrendű predikátumkalkuluson alapuló leírás függvények és relációk (predikátumok) alkalmazásával írja le egyedek, “entitások” kapcsolatait.
Hátrányai: a valódi, reális szituációk leírásához rengeteg predikátumra lenne szükség; a való világ dinamikus jellege a predikátumgyűjteményt nagyon hamar elavulttá teszi, s a tudásbázis “frissen tartását az is megnehezíti, hogy nem lehet egykönnyen elválasztani azt, ami állandó, a változóktól. Két olyan terület van, ahol a klasszikus predikátumkalkulussal egyáltalán nem lehet boldogulni: ott, ahol az ismereteink hiányosak vagy gyorsan változnak, s ott, ahol az állítások nem szigorúan igazak vagy hamisak. Az elsővel a nem monoton logika egyik osztálya, a default logika, a másikkal a fuzzy logika próbál megbirkózni.
Mindennapi ismereteink tele vannak bizonytalansággal, határozatlansággal, “fuzzy” jellegűek. Míg a hagyományos logika csak határozott ítéleteket ismer - vagy igaz valami, vagy hamis -, mindennapi “ítéleteink” a bizonytalanság különböző fokain állanak. Például: “Ha vasárnap elég meleg lesz, és nem fúj nagyon a szél, és nem lesz túlságosan beborulva, nagyot fogok sétálni.” Csupa bizonytalan predikátum. Ezekre az esetekre dolgozta ki L. A. Zadeh a fuzzy logikát (Zadeh, 1983, 1987). A nem monoton logika szabályai szerint pedig így következtetünk: egy állítás nem igaz, ha nem tudjuk, hogy igaz, és eleget tudunk ahhoz, hogy azt állítsuk, ha igaz volna, tudnánk.
A szemantikus háló gráfokból épül fel. A fogalmakat a csomópontok, a köztük fennálló relációkat az élek képviselik. Ezzel az ábrázolási módszerrel a fogalmak közötti távolságot is ki lehet fejezni. A szemantikus háló kísérlet arra, hogy modellezze az emberi gondolkodás asszociatív képességét, amelyet az ember oly sikeresen alkalmaz, amikor analógiákban gondolkozik, metaforákban beszél vagy megoldja az anaforikus hivatkozásokat. A szemantikus hálóban létre lehet hozni ilyen asszociatív kapcsolatokat a fogalmak közvetlen összekapcsolásával, vagy legalábbis közeli elhelyezésével.
A szabály alapú leírás, amely HA feltétel (X) és feltétel (Y), AKKOR szabály (Z) szabályrendszerre épül, nagyon jól alkalmazható szakértői rendszerek felépítésére. Az ismeretek könnyen “kiszedhetők” a szakemberekből, könnyen kódolhatók és könnyen módosíthatók.
A keret alapú rendszerekben a fogalmakat és az azokat jellemző attribútumokat nagyobb tömbökben tárolják, a kapcsolatok nem annyira strukturálisak, mint inkább funkcionálisak. A rendszer hierarchikus felépítésű.
A produkciós rendszerekben úgynevezett produkciós szabályok - minta-akció párok - hajtják végre a műveleteket a fogalmakon.
Mindegyik leírási módnak megvannak az előnyei és hátrányai; annak eldöntése, hogy melyiket alkalmazzák, a megoldandó feladattól függ. A legújabb irányzatok a különböző formalizmusok szintézisét célozzák.
A programozás nyelve az MI-rendszerekben - a LISP, a PROLOG stb. - mind nagyon magas szintű funkcionális, a tudás formalizmusán alapuló nyelv.
A LISP (LIST Processing) a hagyományos elvektől sokban eltérő, a matematikai logika eszköztárára épülő nyelv. Nem számokon, hanem szimbolikus kifejezéseken végez műveleteket, a formulákat és egyéb információkat a gép memóriájában listaszerkezettel ábrázolja, feltételes kifejezéseket és függvényeket használ, a logikai műveletek teljes arzenálját alkalmazza.
A PROLOG (PRograming in LOGic) szintén logikai alapú nyelv. A LISP-nél “barátságosabb”, mert a programozónak csak a megoldandó feladatot kell leírnia - természetesen a matematikai logika eszközeivel, olyan formában, amely kimondja, hogy létezik egy, a kívánt feltételeknek eleget tevő fogalom -, a megoldás menetét nem kell megadnia.
Maga a program a feladathoz tartozó axiómarendszernek felel meg, az utasításokat eldöntendő állítások reprezentálják. (A japánok ötödik generációs számítógép-projektjükben ezt jelölték ki alapnyelvül.)
A mesterséges intelligencia fogalmát úgy is megközelíthetjük, hogy számba vesszük főbb kutatási területeit. Ezek: a természetes nyelv megértése, kép- és alakfelismerés, szakértői rendszerek, dedukciós rendszerek, tanuló rendszerek, robotika.
A természetes nyelv megértése
Az információs társadalom egyik kulcskérdése: hogyan kezeli a számítógép a természetes nyelvet - az írottat és a beszéltet egyaránt. Több oka van ennek. Elsősorban az, hogy az információs technológia fejlődésével mind több ember, lassan az egész társadalom kapcsolatba kerül a számítógéppel - a munkahelyén, otthon, a könyvtárban stb. -, s érthető az igény: mind közvetlenebbé, mind emberibbé tenni az ember-gép kommunikációt. Hogy ne az embernek kelljen megtanulnia a gép nyelvét, hanem a gép tanulja meg az emberét. Ez az igény ma már odáig terjed, hogy a számítógéptől, s a számítógép vezérelte berendezésektől, robotoktól, írógéptől elvárjuk, hogy megértsék az élőbeszédet.
Másodsorban egyre égetőbb szükség van arra, hogy a számítógép, az írott szövegek értelmezésének képességével felruházva, segítségére legyen az embernek kivonatok készítésében, szövegek indexelésében - erre főleg a szakirodalom feldolgozásánál, a szakirodalmi adatbázisok felépítésénél van nagy szükség, integrálni tudjon szöveges információkat más információkkal.
Harmadsorban mind sürgetőbbé válik a fordítás gépesítésének megoldása. Ahogy “zsugorodik” a világ, ahogy fejlődnek, bővülnek az emberek, szervezetek, országok közötti politikai, gazdasági, kulturális, tudományos, turisztikai kapcsolatok, ahogy szaporodnak a nemzetközi szervezetek, nő a nemzetközi értekezletek, konferenciák száma, duzzad a szakirodalom, mind nehezebbé válik a fordítás, tolmácsolás megoldása. (1986-ban Nyugat-Európában több mint 100 millió szövegoldalt fordítottak le más nyelvekre, s világviszonylatban a fordításokra költött összeg mintegy 25 milliárd dollárt tett ki. Az évi növekedést 15%-ra becsülik.) Bár az évszázadok során sokan kísérleteztek nemzetközi nyelv szerkesztésével, eddig azonban nem sikerült, s valószínűleg a jövőben sem fog sikerülni valamely mesterséges, vagy természetes nyelvet egyetemes világnyelvként elfogadtatni. (Az eszperantó érte el eddig a legnagyobb sikert és népszerűséget, s vannak olyan elképzelések, hogy legalább a számítástechnikában tegyék egyetemessé. Ám az eddigi eredmények nem túlságosan biztatók.)
Negyedsorban a szövegszerkesztő programok tökélesítése is megkívánja a számítógéptől, hogy minél jobban ismerje a nyelvet, bár nincs szüksége hozzá olyan alapos nyelvtudásra, mint az első két feladat megoldásához.
A számítógép és a nyelv természetesen eleinte csak a megfelelő információhordozón, majd később billentyűzet útján betáplált szöveg - találkozására nagyon hamar sor került. A programozható számítógép megszületésével egy időben megfogalmazódott az a követelmény, hogy a nehéz gépi nyelv helyett könnyebben kezelhető nyelven lehessen megírni a programokat. Így dolgozták ki az egyre fejlettebb, magasabb szintű programozói nyelveket: az ALGOL-t, FORTRAN-t, a COBOL-t. A ma legelterjedtebb, a személyi számítógépeken legjobban alkalmazható nyelv, a BASIC, már szinte minden informatikai ismeret nélkül elsajátítható. A párbeszédes üzemmódban működő programok pedig lehetővé teszik, hogy a felhasználó emberi nyelven társalogjon a géppel. Lekérdezheti a különböző szakterületek adatbázisait, a szakértői rendszereket.
A kivonatok készítése, szövegek indexelése szintén elfogadható módon meg van oldva.
Ami a fordítást illeti, mint említettük, már 1946-ban felmerült az ötlet, hogy a számítógépet használják fel erre a célra. Mintegy másfél évtizeden keresztül folytak a kísérletek, részeredmények is születtek (az első fordítást egy IBM 701-es számítógépen készítették 1954. január 7-én, oroszból angolra), de bizonyos szintet nem sikerült meghaladni. A fordítások alig érték el az érthetőség határát, és sokszor vicclapokba illő “ferdítések” kerültek ki a számítógépből. A hatvanas években emiatt a gépi fordítás iránti érdeklődés megcsappant. Ugyanígy a kutatásokra fordított pénz is. Mi volt ennek az oka?
Az informatikusok, s a kérdéssel foglalkozó nyelvészek azt hitték, hogy a nyelvet le lehet redukálni szókészletre és szintaxisra (ezt tette Chomsky és a matematikai nyelvészet), és a számítógépnek elég betáplálni a két nyelv szótárát, morfológiai és szintaktikai szabályait. (Utaljunk megint Robert Rosenre, s véleményére a “szintaxis koráról”.)
Hogy miért olyan nehéz megtanítani a gépet az emberi nyelvre, annak oka elsősorban a sokértelműség, amely még az egyszerű mondatot is jellemzi. Az angol nyelvű szakirodalomban előszeretettel idézik a következő példamondatot: Time flies like an arrow. Minden normális ember csak egyféleképpen értelmezi ezt: az idő úgy repül, mint egy nyílvessző. A számítógépes elemzés azonban ezen kívül még háromféle értelmet “magyaráz bele”:
az időlegyek (lásd gyümölcslegyek) szeretik a nyilat;
mérd az idejét (=time) azoknak a legyeknek, amelyek olyanok, mint egy nyíl;
úgy mérd az idejét a legyeknek, mint egy nyíl.
A kudarcból a szakemberek rájöttek arra, hogy a számítógép csak akkor tud jó fordítást készíteni, ha “érti” is a nyelvet, azaz a fordításhoz szemantikai, sőt pragmatikai ismeretekre is szükség van. A következő évek kutatásaiban a nyelvészek vették át a vezető szerepet, s a kutatás súlypontja az elméleti kérdésekre helyeződött át. Megszületett egy új tudományos diszciplína is, a számítógépes nyelvészet. Ez nem a számítógép-tudomány és a nyelvészet kereszteződése, hanem alkalmazott nyelvtudomány. A nyelv mélyebb, alaposabb megismerése, a számítástechnika rohamos fejlődése, s újabban a mesterséges intelligencia kutatásában elért eredmények jelentős haladást eredményeztek. Olyan fordítórendszereket sikerült létrehozni, amelyek most már szemantikai és szövegkörnyezeti tényezőket, körülményeket, oksági összefüggéseket is figyelembe tudnak venni. Egyelőre ezek a magas szintű fordítórendszerek csak a kutatóintézetekben léteznek, de már a kereskedelmi forgalomba került rendszerek is sokat tudnak. Példaként említsük meg a LOGOS rendszert. Tudásbázisa két részből áll: szótári részből és szabályrendszerből. Az angolból németre fordító változat szótára 125.000 szót, szabályrendszere 23.000 szabályt tartalmaz. A program a szabályok alapján minden szónál eldönti, hogy - a szövegkörnyezet függvényében - a szótárból milyen szót vagy kifejezést válasszon ki, s milyen nyelvtani formát adjon neki. A fordított szöveg még emberi utánszerkesztésre szorul, de így is jelentősen növeli a fordítói munka termelékenységét. (Egy jó fordító napi 8 óra alatt 6-8 oldalt tud lefordítani, a LOGOS 18-40 oldalt.)
Szakszövegek, főleg gépek, berendezések dokumentációjának fordítására szolgál a Siemens cég által forgalomba hozott METAL (Machine Evaluation and Translation of Natural Language) rendszer. Nem szavakat, hanem egész kifejezéseket elemez, s a lehetséges értelmezési változatok összehasonlítása után dönti el, melyik mondatértelmezést választja. Természetesen itt is szükség van emberi segítségre, főleg igényesebb szövegeknél, de a haszon így is óriási, a rendszer teljesítménye nyolcórás munkanaponként 200 oldal.
Japánban olyan fordítórendszer kifejlesztésén dolgoznak, amely több nyelvből és nyelvre tud majd fordítani. Az ATLAS II nevet viselő rendszert - amely egyelőre japánból angolra fordít - az jellemzi, hogy a forrásszöveg elemzését elválasztották a cél-szöveg generálásától, ismeretanyaga szemantikus hálók alakjában ábrázolt konceptuális struktúrákból épül fel. Ezek a struktúrák nyelvtől függetlenek. A fordítás három szakaszból áll: az elemzés során két modul elvégzi a morfológiai, szintaktikai és szemantikai elemzést, s az eredmény a forrásmondat fogalmi struktúrája. Az átalakítás szakaszában a modul ezt a fogalmi struktúrát alakítja át a célnyelv gondolkodásmódjának megfelelő struktúrává. Tehát nem is szavakat és a nyelvtant hasonlítja össze, hanem mélyebb elemzést végez. A harmadik fázisban a fogalmi struktúrát szósorrá alakítja. A generálási szabályok úgy vannak összeállítva, hogy egy időben végzik el a morfológiai és szintaktikai strukturálást.
Természetesen ez a rendszer sem tud az emberével egyenértékű fordítást produkálni. A gép mondatról mondatra fordít, s így kevesebb információval rendelkezik, mint az ember, aki az egész szöveget látja. Emellett a gép ismeretanyaga, amely a szótár anyagából és a betáplált általános ismeretanyagból tevődik össze, bármilyen nagy legyen is, elmarad az ember ismereteitől, aki ebből kifolyólag olyan összefüggéseket, értelmezéseket vesz észre, amelyekre a gép képtelen. Ezért ma még a legtökéletesebb gépi fordításnak is szüksége van emberi utószerkesztésre. Eme gyengeségek ellenére, vagy mellett, a fordító számítógép nagyon nagy segítséget jelent az embernek (Sato - Sugimoto, 1986).
Az írott szöveg megértésénél sokkal nehezebb feladatot jelent a beszélt nyelv megértése, helyesebben értelmezése. Ennek sok oka van. Többek között:
a hangjel sok olyan elemet tartalmaz, amelynek nincs információtartalma, azaz zajjellegű;
a beszélők kiejtése nem egyforma, sokszor hibás, és nem felel meg egy szabványkiejtésnek;
ugyanannak az embernek a kiejtése is változik fizikai állapotától, idegállapotától függően;
a fonémák kiejtése függ a környezetüktől;
a beszédben a szavakat ritkán választják el szünetek, sőt sokszor a szavakon belül tartunk szünetet;
a homonimák értelmezése a szövegkörnyezet nélkül lehetetlen.
A rendszer bemenőjelként a fentiekből következően a fonetikai elemek rácsszerkezetét kapja, sok hibával, a normától való eltéréssel. A ma elterjedt rendszerek alapja a minta-összehasonlítás (pattern matching). Első lépésként kiválasztják a bemenő beszédminták lényeges mérhető paramétereit (ezt a folyamatot lényegkiemelésnek nevezik), s ezeket a paramétereket osztályokba sorolják. Használatkor a rendszer a beszédet összehasonlítja a tárolt mintákkal. Mivel kiejtésbeli különbségekből adódóan a hangminták hossza nem esik egybe, a rendszernek időillesztést is végre kell hajtania. A rendszereket aszerint osztályozzák, hogy szavakat vagy folyamatos beszédet tudnak felismerni, s hogy személyfüggők vagy személyfüggetlenek. A legtöbb ma forgalomban levő rendszer személyfüggő szófelismerő, azaz csak annak az embernek a beszédét érti meg -, s azt is csak néhány száz izolált szó formájában - akiére megtanították. A kérdést nagyon jól összefoglalja Vicsi Klára tanulmánya (Vicsi, 1986). A kutatás és a fejlesztés természetesen az elmúlt három évben is mind tökéletesebb rendszerek kidolgozásához vezetett, bár a működési elvekben lényeges változás nem történt. Az IBM, pl. olyan személyi számítógéppel összekapcsolt beszédértő írógépet fejlesztett ki, amely húszezer szót “ért meg”. Az igazi “szóból értő rendszerek” (számítógépek, robotok, automaták stb.) elterjedése rendkívüli módon megnöveli majd a termelékenységet, s az sem mellékes körülmény, hogy a vakok, mozgásképtelenek számára is lehetővé teszi a társadalomba való fokozottabb, teljesebb beilleszkedést, s a tevékeny életet.
Alakzat-felismerés
Az alakzat-felismerés - ha a fogalmat szélesebb értelemben vesszük, magában foglalja az élőbeszéd, és az írás, a síkbani képek, rajzok, térbeli alakzatok felismerését. Az elsőről a nyelv megértésével kapcsolatban volt már szó, így itt csak a vizuális alakzat-felismerésről beszélünk.
A kép- és alakzat-felismerés egyike azoknak a területeknek, amelyeken az ember sokkal tökéletesebb, mint a gép. Nekünk egy szempillantás és néha nagyon kevés információ elég ahhoz, hogy felismerjük embertársunkat, egy tájat, utcarészletet. Még nem is látjuk tisztán sem az arcát, sem az alakját, csupán a körvonalait, a járását, egy jellegzetes mozdulatát, s máris felismerjük barátunkat, kollégánkat vagy akárkit, akit néhányszor láttunk, még akkor is, ha bizonyos jellegzetességeik megváltoztak (szemüveges lett, megfestette a haját, arca eltorzul a fájdalomtól vagy nevetéstől stb.). A gépnek ehhez rendkívül sok információra van szüksége: az alak pontjainak egymáshoz viszonyított helyzetére, viszonyára a környezetéhez, térbeli elhelyezkedésére. Mindezek leírásához rengeteg pont koordinátáit kell megadni, s a színek, árnyalatok, a megvilágítási értékek jellemzésére az adatok további tömege szükséges.
A kérdésnek három területen van nagy fontossága: a robotikában, az írás felismerésében és az űrkutatásban.
Az elmúlt években az alakzat-felismerés területén is - látásról lévén szó, stílszerűen azt mondhatjuk - káprázatos volt a fejlődés.
Ennek ellenére a számítógép “látása” még messze elmarad az emberétől. A kutatásban két tendencia érvényesül, amelyek némileg ellentmondanak egymásnak: egy-egy konkrét feladat minél gyorsabb megoldása az egyik oldalon, az emberi látás tanulmányozása alapján egy általános metodológia kidolgozása a másikon. A baj ott van, hogy sok gyakorlati megoldás nem általánosítható, s az elméleti tanulmányok nagy részét nem alkalmazzák a gyakorlatban.
A legnagyobb nehézséget az okozza, hogy még a legerősebb számítógépnek is nagyon sok időre - néha 100 mp-re - van szüksége ahhoz, hogy egyetlen statikus képet interpretáljon. Márpedig ez túl hosszú idő, főleg a robotok vezérlésében, amikor egy-egy szekvencia feldolgozására 20 ezredmp áll rendelkezésre. A konvencionális Neumann-féle számítógépek képtelenek erre a teljesítményre. Ezért szerkesztettek a valós idejű képfeldolgozás igényeihez szabott kép-preprocesszort. Abból a tényből indultak ki, hogy a mozgás vezérléséhez nincs szükség az egész képre, csak azokra a rendszerint kis részletekre, amelyek a mozgás szempontjából relevánsak. Ezeknek a feldolgozását pedig meg lehet oldani egymástól független, párhuzamosan dolgozó alprocesszorokkal. Az új típusú nem-Neumann-elvű, párhuzamos struktúrájú számítógépek valószínűleg megbirkóznak majd ezzel a feladattal is. (A robotok látásáról később majd még beszélünk.)
Az írásjelek optikai felismerése ennek főleg a gazdasági, pénzügyi életben van jelentősége - más problémákat vet fel. A számítógépnek egy nem ideális analóg képet kell ideális digitális képpé alakítania. Az eredeti dokumentum, amelyről le kell olvasni az írásjeleket, néha piszkos, sokszínű, az írásjelek íródhatnak a legkülönbözőbb eszközökkel (toll, ceruza, golyóstoll, írógép stb.), lehetnek vékonyak, halványak vagy vastagok, összefolyók stb., alakjuk nagyon eltérhet a szabványtól. A feladat itt abból áll, hogy a gépnek el kell különítenie az egyes jeleket, végigpásztázva a felületet pontról pontra el kell döntenie, hogy az írásjelhez tartoznak-e vagy sem. (A letapogatás egy szabványos amerikai csekk méretnél kb. 1 millió képpontot eredményez.) Az eredményt azután egybe kell vetni azokkal az a priori információkkal, amelyeket a számítógép memóriájában tároltak az írásjelekről. A feladat megoldására ma már jobbnál jobb módszerek, eljárások, algoritmusok állnak rendelkezésre. Természetesen ez nem jelenti azt, hogy ezen a területen már nincs tennivaló.
Ismét más problémákkal találkozunk az űrfényképezésben. Itt nem a számítógépnek kell - valós időben - értékelni a képet, és döntést hozni, ezt a földi megfigyelőállomás szakemberei elvégzik. A feladat az optikai berendezés által készített kép pontjainak bináris kódba való átírása és továbbítása a Földre. Példaként idézzük a Voyager-2 űrszonda ez irányú tevékenységéről szóló beszámolót.
“Egy Voyager-kép 800 sorból, s minden sor 800 képelemből áll, azaz a teljes képet összesen 640.000 képelem alkotja. Az egyes képelemek fényessége 256-féle (ez éppen 28), a feketétől a fehérig terjedő értéket vehet fel. Ennek a fényességtartománynak az átviteléhez bináris kódban egy nyolcjegyű számra van szükség. Ennélfogva egyetlen kép továbbításához, nem számítva a külön hibakereső és -javító biteket, 5.120.000 (800·800·8) bit kell.
A képátvitelhez szükséges bitek száma több mint a felével csökkenthető, ha kihasználjuk azt a tényt, hogy az egymással szomszédos képelemek általában közel azonos fényességűek. Ez különösen azokra a pontokra igaz, amelyek nem az egyes tárgyakat határoló körvonalak mentén helyezkednek el. Ha a Voyager-2 képes lenne az összes képelem valódi fényessége helyett csupán a szomszédos képelemek fényességkülönbségét továbbítani, akkor szemben a korábbi nyolccal, képelemenként három bit is elég lenne. (Nyilvánvaló, hogy kiindulópontként ekkor is meg kell adni az egyes sorok első képelemének abszolút fényességét.)
Ezt a változtatást a gyakorlatban is végrehajtották. A második FDS-számítógép tartalék szerepét feláldozták, így a gépet átprogramozhatták az adattömörítő algoritmusokkal. A képtömörítő rendszer azonban meglehetősen sebezhető, mivel minden egyes képpont fényességértéke (az elsőket kivéve) a megelőző pont fényességétől függ. Így egyetlen bit hibája tönkreteheti a tömörített kép egész sorát, szemben a tömörítetlen kép egyetlen elemével” (Laeser, 1987).
Szakértő rendszerek
A hatvanas évek elején Edward Feigenbaum azt a kérdést kezdte tanulmányozni, hogyan lehetne az emberi induktív és heurisztikus gondolkodás, következtetés mechanizmusát számítógépen szimulálni. Kutatócsoportot alakított, amelynek tagja lett egy vegyész is (Joshua Lederberg), ezért kísérletük tárgyául egy kémiai problémát választottak: szerves vegyületek szerkezetének számítógépes meghatározását a tömegspektográf által szolgáltatott adatok elemzése alapján. Így született meg az első szakértő rendszernek nevezhető program, a DENDRAL (amelyet azóta természetesen állandóan továbbfejlesztenek), s indult meg a tapasztalatok alapján a szakértő rendszerek kifejlesztése.
|