26.1. Gyenge MI: Tudnak-e a gépek intelligensen cselekedni?

Néhány filozófus megpróbálta bebizonyítani, hogy a mesterséges intelligencia nem lehetséges, azaz a gépek valószínűleg nem tudnak intelligensen cselekedni. Néhányan az MI-kutatás leállítását szeretnék elérni érveikkel:

 

A számításorientált megközelítés kultuszának részeként űzött mesterséges intelligenciának még esélye sincsen arra, hogy tartós eredményeket érjen el (…) itt az ideje, hogy az MI-kutatók erőfeszítéseit – és a támogatásukra szánt hatalmas pénzeket – máshova tereljük, mint a számításorientált megközelítés.

 
  --(Sayre, 1993)

A mesterséges intelligencia lehetséges mivolta nyilván azon múlik, miként definiáljuk. Lényegét tekintve a mesterséges intelligencia egy adott architektúrához a legjobb ágensprogramot keresi. Ebben a megfogalmazásban már a definíció szerint is lehetséges az MI: bármely k tárbitet tartalmazó digitális architektúrához pontosan 2k ágensprogram tartozik; ahhoz pedig, hogy megtaláljuk a legjobbat, egyszerűen csak egyesével fel kell sorolni és tesztelni az ágenseket. Ez ugyan nem lenne praktikus nagy k esetén, de a filozófia az elmélettel, nem pedig a gyakorlattal foglalkozik.

A mesterséges intelligenciára adott definíciónk jól működik a mérnöki probléma esetében is, ahol egy adott architektúrához tartozó jó ágenst kell találni. Nagy a kísértés tehát, hogy befejezzük itt ezt a szakaszt, és igenlő választ adjunk a címben feltett kérdésre. A filozófusok azonban két architektúrát akarnak összehasonlítani: az embert és a gépet. Ráadásul a hagyományosan feltett kérdés így hangzik: „Tudnak-e a gépek gondolkodni?” Sajnos ez egy helytelenül feltett kérdés. Hogy megértsük, miért, nézzük az alábbi kérdéseket:

  • Tudnak a gépek repülni?

  • Tudnak a gépek úszni?

A legtöbb angolul beszélő ember[277]egyetért abban, hogy az első kérdésre igennel kell felelni: a repülőgépek tudnak repülni; de a második kérdésre az angolban a válasz nemleges: a hajók és a tengeralattjárók haladnak ugyan a vízben, de az angolban ezt nem nevezik úszásnak. Sem ezeknek a kérdéseknek persze, sem a válaszoknak nincsen semmilyen hatása a tengerészek, a tengerészeti mérnökök vagy az ezekkel a dolgokkal bármilyen kapcsolatba kerülők mindennapi munkájára. A válaszoknak alig van közük a repülőgépek és tengeralattjárók tervezéséhez és képességeihez; inkább arról szólnak, hogy a szavak használatának milyen módjait választottuk ki. Úgy alakult, hogy az „úszni” szó az angolban azt jelenti, hogy ’testrészeinek mozgásával előrehalad a vízben’, míg a „repülni” szó jelentése az angolban nem határozza meg a helyváltoztatás módját.[278] A „gondolkodó gépek” gyakorlati lehetősége még csak mintegy ötven éve jelent meg, és ez az idő nem volt elég az angolul beszélőknek, hogy a „gondolkodni” szó az angolban új jelentést kapjon.

Alan Turing azt javasolta Computing Machinery and Intelligence c. híres cikkében (Turing, 1950), hogy ne azt kérdezzük, tudnak-e a gépek gondolkodni, hanem azt vizsgáljuk, hogy átmennek-e a gépek egy viselkedési intelligenciateszten, amelyet később Turing-tesztnek neveztek el. A teszt szerint a programnak öt percen át kell (gépelt online üzenetekkel) beszélgetnie egy kérdezővel. A kérdezőnek ezután választania kell, hogy egy programmal vagy egy személlyel beszélgetett-e, és egy program akkor felel meg a teszten, ha az idő 30%-ában megtéveszti a kérdezőt. Turing azt a sejtést fogalmazta meg, hogy 2000-re egy 109 táregységből álló számítógépet be lehet úgy programozni, hogy megfeleljen a teszten, ámde nem lett igaza. Az ugyan megtörtént már, hogy néhány embert öt percig becsaptak; például az ELIZA program és az MGONZ internetes csevegőrobot becsapott olyan embereket, akik nem gondoltak arra, hogy talán egy programmal beszélhetnek, és az ALICE program becsapott egy zsűritagot a 2001-es Loebner-díjért zajló versenyben. De egyetlenegy program sem került annak közelébe, hogy 30%-ot érjen el képzett zsűrivel szemben, és az MI-kutatás egésze nem is szentel túl nagy figyelmet a Turing-teszteknek.

Turing az intelligens gépek lehetősége ellen felhozható érvek széles választékát is megvizsgálta, beleértve szinte minden olyan ellenérvet, amely a cikk megjelenése óta eltelt fél évszázadban felmerült. A következőkben ezek közül nézünk meg néhányat.

26.1.1. A képesség hiányából vett érv

A „képesség hiányából vett érv” azzal a követeléssel lép fel, hogy „a gépek sohasem képesek X-et tenni”. Az X-ekre Turing a következő példákat hozza:

 

Kedvesnek, találékonynak, szépnek és barátságosnak lenni, kezdeményezni, humorérzéket mutatni, megkülönböztetni a helyest a helytelentől, hibákat követni el, szerelmesnek lenni, élvezni a tejszínes epret, elérni, hogy valaki szerelmes legyen belé, tapasztalatból tanulni, helyesen használni a szavakat, saját gondolatai alanyának lenni, annyira változatosan viselkedni, mint az ember, valami igazán újat tenni.

 
  --Turing

Turingnak az intuícióját kellett használnia, hogy megsejtse, mi válhat lehetségessé a jövőben, mi azonban abban a kényelmes helyzetben vagyunk, hogy visszanézhetünk a számítógépek eddigi teljesítményére. Senki sem tagadja, hogy a számítógépek ma sok olyan dolgot megtesznek, amely korábban kizárólag az emberekhez tartozott. A programok sakkoznak, dámát vagy más játékokat játszanak, alkatrészeket vizsgálnak gyártósorokon, a szövegszerkesztéskor ellenőrzik a helyesírást, helikoptereket és autókat irányítanak, betegségeket diagnosztizálnak és több száz más tevékenységet végeznek éppolyan jól, vagy még jobban, mint az emberek. A számítógépek kicsiny, de jelentős felfedezéseket tettek a csillagászatban, a matematikában, a kémiában, az ásványtanban, a biológiában, a számítástudományban és más területeken. Ezekhez a felfedezésekhez az emberi szakértőhöz hasonló szintű teljesítményekre volt szükség.

Annak fényében, amit most tudunk a számítógépekről, nem meglepő, hogy jól teljesítenek a sakkhoz hasonló kombinatorikai problémákban. De az algoritmusok az emberhez mérhető szinten hajtanak végre olyan tevékenységeket is, amelyek látszólag emberi döntést igényelnek, amelyek során, mint Turing mondta, képesnek kell lenni a „tapasztalatból tanulni” és „megkülönböztetni a helyest a helytelentől”. Még egészen korán, 1955-ben Paul Meehl (lásd még Grove és Meehl, 1996) képzett szakértők döntéshozatali folyamatát tanulmányozta olyan szubjektív esetekben, mint például hogy egy diák elvégez-e egy képzési programot, vagy egy bűnöző visszaesik-e. A megvizsgált 20 eset közül 19-nél Meehl azt találta, hogy egyszerű statisztikai tanulási algoritmusok (mint például a lineáris regresszió vagy a naiv Bayes-tanulás) jobb előrejelzéseket adnak, mint az emberi szakértők. Az Educational Testing Service a GMAT-vizsga esszékérdéseinek millióit osztályozza 1999 óta egy automatizált programmal. A program osztályzata az osztályzást végző emberek minősítésével az esetek 97%-ában egyezik meg, és ez az arány hasonló ahhoz, amennyire a különböző emberek által adott minősítések megegyeznek (Burstein és társai, 2001).

Világos, hogy sok mindent, köztük olyan dolgokat is, amelyekhez általános meggyőződésünk szerint komoly emberi éleselméjűség és értelem szükséges, a számítógépek ugyanolyan jól el tudnak végezni, mint az emberek, vagy akár még jobban is. Ez persze nem jelenti azt, hogy a számítógépek éleselméjűséget és értelmet tanúsítanának az ilyen dolgok végrehajtásakor: ezek nem részei viselkedésüknek (erről a kérdésről majd máshol beszélünk), hanem inkább arról van szó, hogy gyakran téves az első feltételezésünk az adott tevékenység elvégzéséhez szükséges mentális folyamatról. Ugyanakkor az is igaz, hogy számtalan feladatban a számítógépek (finoman szólva) nem járnak az élen, és ilyen Turing feladata, a nyíltvégű beszélgetések folytatása is.

26.1.2. A matematikai ellenvetés

Turing (Turing, 1936) és Gödel (Gödel, 1931) munkássága révén közismert, hogy egyes matematikai kérdések elviekben is megválaszolhatatlanok bizonyos formális rendszerekben. A leghíresebb példa erre Gödel nemteljességi tétele (lásd 9.5. alfejezet). Ez, röviden összefoglalva, azt mondja ki, hogy bármely F formális rendszerben, amelyben az aritmetika megfogalmazható, lehetséges egy G(F) Gödel-mondatot konstruálni, amelyre igaz, hogy

  • G(F) egy mondat F-ben, de F-en belül nem bizonyítható.

  • Ha F konzisztens, akkor G(F) igaz.

Egyes filozófusok, mint például J. R. Lucas (Lucas, 1961) állítása szerint ez a tétel azt bizonyítja, hogy a gépek mentálisan alsóbbrendűek az embereknél, mert a gépeket mint formális rendszereket korlátozza a nemteljességi tétel (nem tudják megállapítani a saját Gödel-mondatuk igazságát), az embereket viszont ilyesmi nem korlátozza. Ez az állítás évtizedes, sok könyvet felölelő vitát keltett, például a matematikus Sir Roger Penrose két könyvében (Penrose, 1989; 1994) képviseli ezt az állítást kicsit megcsavarva (például azzal a feltételezéssel, hogy az emberek azért különböznek, mert agyukat a kvantumgravitáció működteti). Három problémát fogunk az állítással kapcsolatban megvizsgálni.

Először is Gödel nemteljességi tétele csak olyan formális rendszerekre vonatkozik, amelyek elég erősek az aritmetikához. Ezek közé tartozik a Turing-gép is, és Lucas állítása részben azon a feltételezésen alapul, hogy a számítógépek Turing-gépek. Ez jó közelítés, ám nem teljesen igaz. A Turing-gépek végtelenek, a számítógépek azonban végesek, és ezért bármely számítógépet le lehet írni egy nagyon nagy logikai állításrendszerrel, amelyre már nem vonatkozik Gödel nemteljességi tétele.

Másodszor is egy ágensnek nem kell túlzottan szégyenkeznie amiatt, hogy egyes állítások igazságát, másoktól eltérően, ő nem tudja eldönteni. Nézzük például a következő mondatot:

J. R. Lucas nem tudja konzisztensen azt állítani, hogy ez a mondat igaz.

Lucas ellentmondana önmagának, ha azt állítaná, hogy a fenti (teljes) mondat igaz, tehát Lucas nem tudja ezt a mondatot konzisztensen állítani, tehát a mondat mindenképpen igaz. (A mondat nem lehet hamis, mert ha hamis volna, akkor Lucas nem tudná konzisztensen állítani, tehát igaz lenne.) Bebizonyítottuk tehát, hogy van egy mondat, amelyet Lucas nem tud konzisztensen állítani, mások viszont (beleértve a gépeket is) igen. De ez előttünk semmit sem von le Lucas értékéből. Egyetlenegy ember sem tudja, hogy egy másik példát vegyünk, élete során kiszámítani tízmilliárd tízjegyű szám összegét, egy számítógép viszont másodpercek alatt megteszi ezt. Mégsem tartjuk ezt az emberi gondolkodási képesség alapvető korlátjának. Évezredeken át, mielőtt felfedezték volna a matematikát, az emberek ugyanúgy intelligens viselkedést tanúsítottak, nem valószínű hát, hogy a matematika a periferiálisnál fontosabb szerepet játszana az intelligencia meghatározásában.

Harmadszor és legfőképpen, még ha el is fogadjuk, hogy a számítógépek bizonyítási képessége korlátozott, semmi sem bizonyítja, hogy az emberek mentesek lennének az ilyen korlátozásoktól. Túlzottan is egyszerű szigorúan bebizonyítani, hogy egy formális rendszer képtelen X-re, majd minden további bizonyíték nélkül azt állítani, hogy az emberek a maguk nem formális módján képesek erre az X-re. Azt, hogy az emberek nincsenek alávetve Gödel nemteljességi tételének, valóban lehetetlen bebizonyítani, mert bármely szigorú bizonyításnak tartalmaznia kellene az állítás szerint formalizálhatatlan emberi tehetség egy formalizálását, tehát a bizonyítás önmagát cáfolná meg. Lehet még fellebbezni az intuícióhoz, miszerint az emberek valamilyen módon képesek a matematikai belátás emberfeletti cselekedeteire. Ezt a fordulatot fejezik ki az olyan érvek, mint például „feltételeznünk kell önnön konzisztenciánkat, hogy a gondolkodás egyáltalán lehetséges legyen” (Lucas, 1976). De ha bármiről is, akkor az emberi gondolkodásról mindenképpen tudjuk, hogy inkonzisztens. Ez egyértelműen igaz a mindennapi érvelésünkre, de vonatkozik még az elővigyázatos matematikai gondolkodásra is. Híres példa erre a négyszín-probléma. 1879-ben Alfred Kempe közzétett egy bizonyítást, amelyet széles körben elfogadtak, és amely hozzájárult, hogy a Royal Society tagjává választották. 1890-ben azonban Percy Heawood egy hibát fedezett fel a bizonyításban, és egészen 1977-ig senki nem tudta a tételt bebizonyítani.

26.1.3. A meghatározatlanságból vett érv

A mesterséges intelligencia vállalkozásának legnagyobb hatású és legmakacsabb kritikáját Turing úgy mutatta be, mint „a viselkedés meghatározatlanságából származó érvet”. Az állítás lényege az, hogy az emberi viselkedés túl komplex ahhoz, hogy egy szabálykészlettel le lehessen írni, és mivel a számítógépek semmi másra nem képesek, csak szabályok követésére, ezért nem tudnak az emberekhez hasonló intelligens viselkedést létrehozni. Azt, hogy logikai szabályok egy halmazával képtelenség mindent leírni, a mesterséges intelligenciában kvalifikációs problémának (qualification problem) nevezik (lásd 10. fejezet).

Ezt a nézetet főként a filozófus Hubert Dreyfus képviselte, aki számos befolyásos MI-kritika szerzője: What Computers Can’t Do (Dreyfus, 1972); What Computers Still Can’t Do (Dreyfus, 1992), valamint a testvérével, Stuarttal, közösen írt Mind Over Machine (Dreyfus és Dreyfus, 1986).

Azt az álláspontot, amit kritizáltak, Haugeland (Haugeland, 1985) nyomán elkezdték „Jófajta, régivágású MI”-nek nevezni (angol rövidítéssel: GOFAI). A GOFAI azt feltételezné, hogy minden intelligens viselkedés megragadható egy olyan rendszerrel, amely a tárgyterületet leíró tények és szabályok halmazaiból kiindulva logikai következtetést végez. Ezért a GOFAI a 7. fejezetben leírt legegyszerűbb logikai ágensnek felel meg. Dreyfusnak igaza van abban, hogy a logikai ágensek ki vannak téve a kvalifikációs probléma veszélyének. Amint a 13. fejezetben láttuk, a nyílt tárgyterületekhez sokkalta megfelelőbbek a valószínűségi következtető rendszerek. Dreyfus kritikája tehát nem per se a számítógépek, hanem csak a programozás egy meghatározott módja ellen irányul. Okkal feltételezhetjük persze, hogy nem lenne túl nagy hatású egy könyv Amire az elsőrendű logikai szabályalapú, nem tanuló rendszerek képtelenek címmel.

Dreyfus nézete szerint az emberi szakértelemnek ugyan része néhány szabály ismerete, de ezek csak „holisztikus kontextust” vagy „hátteret” alkotnak az emberi tevékenységhez. Példaként az ajándék adásakor és fogadásakor illő társas viselkedést hozza fel: „Általában az ember a megfelelő körülmények között úgy reagál, hogy egy megfelelő ajándékot ad.” Az embernek láthatólag „közvetlen érzéke van ahhoz, hogy miként történnek a dolgok, és mit lehet elvárni.” Hasonló állítást tehetünk a sakkjáték vonatkozásában is: „Egy átlagos sakkmesternek lehet, hogy gondolkodnia kell azon, mit tegyen, de egy nagymester látja, hogy a tábla egy bizonyos lépést követel (…) a helyes reakció egyszerűen csak beugrik a fejébe.” Minden bizonnyal igaz, hogy egy ajándékozó vagy egy sakknagymester gondolati folyamata azon a szinten zajlik, amely rejtett a tudatos elme önismerete elől. Ez azonban nem jelenti, hogy ez a gondolati folyamat nem létezik. Lényeges, hogy Dreyfus nem válaszolja meg azt, hogy a helyes lépés miként kerül a nagymester fejébe. Mindez Daniel Dennett (Dennett, 1984) megjegyzésére emlékeztet:

 

Ez olyan, mintha a filozófusok azt tartanák magukról, hogy szakértő magyarázói a színpadi bűvészek trükkjeinek, aztán, amikor megkérdezzük tőlük, hogy milyen trükköt használnak a bűvészek a nő kettéfűrészelésénél, akkor azt a magyarázatot adják, hogy mindez nagyon is világos: a bűvész nem fűrészeli ketté a nőt, ezt csak színleli. Ha azt kérdezzük azonban: „Mégis hogyan színleli?”, a filozófusok ezt felelik: „Nem ránk tartozik.”

 
  --Daniel Dennett

A két Dreyfus (Dreyfus és Deyfus, 1986) vázolja a szakértelem ötlépcsős elsajátításának folyamatát, kiindulva a hasonló szabályalapú feldolgozásból (ahogyan az a GOFAI-ban is szerepel) eljutva a helyes reakció azonnali kiválasztásának képességéhez. A szerzők ezzel a javaslattal tulajdonképpen az MI kritikusaiból az MI elméletalkotóivá válnak: egy „eset-könyvtárakba” szervezett neurálisháló-architektúrát vázolnak fel, azonban rámutatnak néhány problémára is. Ezeket a problémákat szerencsére már mind célba vette az MI-kutatás néhányukat részleges, másokat pedig teljes sikerrel oldva meg. Nézzünk néhány ilyen problémát:

  1. Háttértudás nélkül nem lehet jól példákból általánosítani. Azt állítják, senki sem tudja, miként lehetne a háttértudást beépíteni a neuronhálók tanítási folyamatába. Pedig, amint a 19. fejezetben mi is láttuk, léteznek módszerek az a priori tudás felhasználására a tanítási folyamat során. Ezek a módszerek persze a tudás explicit megadásán alapulnak, amelynek lehetőségét a szerzőpáros elszántan tagadja. Nézetünk szerint ez a probléma erős indok a neurális feldolgozás jelenlegi modelljeinek olyan újratervezésére, amely már a többi tanuló algoritmushoz hasonlóan képes lesz felhasználni a korábban megtanult tudást.

  2. A neurális hálók tanulása a felügyelt tanulás egyik formája (lásd 18. fejezet), amely igényli, hogy előzetesen azonosítsuk a releváns bemeneteket, valamint a megfelelő kimeneteket. Ezért azt állítják, hogy nem is képesek ezek a hálózatok autonóm módon, emberi betanítás nélkül üzemelni. Valójában a nem ellenőrzött tanulás (unsupervised learning) (lásd 20. fejezet) és a megerősítéses tanulás (reinforcement learning) (lásd 21. fejezet) éppen a tanító nélküli tanulást teszi lehetővé.

  3. A tanuló algoritmusok nem teljesítenek jól sok jellemző esetén, viszont ha kijelöljük a jellemzők egy halmazát, „nem ismeretes olyan módszer, amellyel új jellemzőket illeszthetünk be, ha a jelenlegiek nem lennének elegendők a megtanult tényekhez”, valójában új eljárások, mint például a szupport vektor gépek, jól megbirkóznak a nagy jellemzőhalmazokkal is. A 19. fejezetben pedig láthattuk, hogy alapjaikat tekintve léteznek módszerek az új jellemzők bevezetésére, habár még sok tennivaló akad ezen a területen.

  4. Az agy képes a szenzorait releváns információk keresésére irányítani, és képes kinyerni az információkból azt, ami releváns az adott szituációban. Ezzel szemben „jelenleg egyetlen részletét sem értjük ennek a működésmódnak – állítják –, és még csak olyan hipotézist sem tudunk alkotni róluk, amely útmutatásul szolgálhatna az MI-kutatóknak”. Valójában az aktív látás területe, amelyet az információérték-elmélet (lásd 16. fejezet) alapoz meg, éppen hogy a szenzorok irányításának problémájával foglalkozik, és az elért elméleti eredmények egy részét már át is ültették robotmegvalósításokba.

Összegezve azt mondhatjuk, hogy számos olyan kérdés, melyet Dreyfus felvetett – a köznapi háttértudás, a kvalifikáció probléma, a bizonytalanság kezelése, a tanulás, a döntéshozatal előre lefordított módjai, annak fontossága, hogy ne testetlen következtetőgépeket tekintsünk, hanem szituációjukba ágyazott ágenseket –, ma már bekerült az intelligens ágensek tervezésének szokványos menetébe. Véleményünk szerint mindez tehát nem a mesterséges intelligencia lehetetlenségét, hanem éppen a fejlődését bizonyítja.



[277] A kérdések eredeti formája és így az elemzés tárgya az angol nyelv. (A ford.)

[278] Az orosz nyelvben az „úszni” megfelelője hajókra is vonatkozik. A magyar „úszni” ige is vonatkozhat hajókra, sőt, ismét csak az angoltól eltérően, még felhőkre is. (A ford.)