27.3. Egyáltalán a jó irányba haladunk?

Az előző fejezetekben sok előrelépést soroltunk fel, és még több lehetőséget a jövőbeli fejlődésre. De hova vezet mindez? Dreyfus analógiaként azt hozza fel (Dreyfus, 1992), hogy amikor valaki egy fa megmászásával akar a Holdra jutni, az illető állandó haladásról számolhat be egészen a fa csúcsáig. Ebben a fejezetben az a kérdésünk, hogy a mesterséges intelligencia fejlődése a famászásra hasonlít-e, vagy inkább a holdrakétára.

Az 1. fejezetben azt mondtuk, hogy célunk a racionálisan cselekvő ágens építése. Azonban arra is figyelmeztettünk, hogy

 

…komplex környezetben a tökéletes racionalitást – mindig helyesen cselekedni – lehetetlen elérni. A számítási szükségletek egyszerűen túl komolyak. A könyv nagyobb részében azonban azzal a munkahipotézissel fogunk élni, hogy a tökéletes döntéshozatal megértése jó kiindulópont.

 
  --1. fejezet

Itt az ideje ismét végiggondolni, mi is az MI pontos célja. Ágenseket akarunk építeni, de milyen specifikáció van közben a fejünkben? Íme, négy lehetőség:

  1. Tökéletes racionalitás (perfect rationality): A tökéletesen racionális ágens minden pillanatban úgy cselekszik, hogy a környezetről szerzett információja alapján várható hasznosságát maximalizálja. Mivel láttuk, hogy a legtöbb környezetben túlságosan időrablók a tökéletes racionalitáshoz szükséges számítások, ezért ez nem realisztikus cél.

  2. Számítható racionalitás (calculative rationality): Ez az a megközelítés, amit implicit módon a logikai és döntéselméleti ágensek tervezésekor használtunk. Egy számíthatóan racionális ágens végül meghatározza azt, ami racionális választás lehetett volna következtetéseinek az elején. Ez érdekes tulajdonsága egy rendszernek, de a legtöbb környezetben a rosszkor érkező jó válasznak nincs semmi értéke. A gyakorlatban az MI-rendszerek tervezői rá vannak kényszerítve arra, hogy a tervezési minőséget illetően egy elfogadható általános teljesítmény érdekében kompromisszumot hozzanak; szerencsétlen módon azonban a számítható racionalitás elméleti alapja nem nyújt jól kidolgozott lehetőséget egy ilyen kompromisszum meghozatalára.

  3. Korlátozott racionalitás (bounded rationality): Herbert Simon elvetette a tökéletes (vagy akár a közelítőleg tökéletes) racionalitás gondolatát, és a korlátozott racionalitást állította a helyére (Simon, 1957), ami a valódi ágensek döntéseinek leíró elmélete. A következőt írta:

 

A valósvilág-beli objektív racionális viselkedéshez, vagy akár csak ennek az objektív racionális viselkedésnek az elfogadható megközelítéséhez megoldandó problémák méretéhez képest túl kicsi az emberi elme komplex problémák megfogalmazására és megoldására szolgáló kapacitása.

 
  --Herbert Simon

Azt javasolta, hogy a korlátozott racionalitás elsődlegesen az elfogadhatóságban (satisficing) nyilvánul meg: olyan hosszú ideig kell foglalkozni a döntéssel, ami elegendő egy „elfogadhatóan jó” válasz megtalálásához. Ezért a munkájáért Simon közgazdasági Nobel-díjat kapott, és később részletesen is írt még róla (Simon, 1982). Ez az emberi viselkedésnek sok esetben hasznosnak tűnő modellje, azonban nem ad formális specifikációt az intelligens ágensek számára, mert az elmélet nem adja meg az „elfogadhatóan jó” definícióját. Továbbá az elfogadhatóság láthatóan csak egyike a korlátozott erőforrások leküzdését szolgáló technikáknak.

  1. Korlátozott optimalitás, KO (bounded optimality, BO): Egy korlátozottan optimális ágens adott számítási erőforrások mellett a lehető legjobban cselekszik. Egy ilyen ágens esetén az ágensprogram várható hasznossága legalább olyan magas, mint az ugyanazon a gépen futó bármilyen más ágensprogramé.

A négy lehetőség közül, úgy tűnik, a „korlátozott optimalitás” választása adja a legtöbb esélyt az MI erős elméleti megalapozására. Megvan az az előnye, hogy elérhető: mindig van legalább egy legjobb program – a tökéletes racionalitásról ugyanez nem mondható el. A korlátozottan optimalitás ágensek hasznosak a mindennapi gyakorlatban is, a számítható racionalitású ágensek általában nem, míg az elfogadhatóságra törekvő ágenseknél ez a szeszélyeiken múlik.

A hagyományos megközelítés az MI-ben az volt, hogy a számítható racionalitással kezdünk, majd az erőforráskorlátok kielégíthetősége érdekében kompromisszumokat hozunk. Ha ezek a korlátok csak kis problémákat okoznak, akkor a keletkező terv várhatóan a KO ágens tervéhez lesz hasonló. Ha azonban az erőforráskorlátok kritikussá válnak – például mert a környezet egyre összetettebbé válik –, akkor a két terv várhatóan el fog térni egymástól. A korlátozott optimalitás elmélete ezen korlátok kezelésére kínál elveket.

A korlátozott optimalitásról egyelőre keveset tudunk. Nagyon egyszerű gépekhez és valamilyen mértékben korlátozott környezetekhez korlátozottan optimális programok konstruálhatók (Etzioni, 1989; Russell és társai, 1993). Bonyolult környezetekben működő nagy, általános rendeltetésű számítógépek esetén azonban fogalmunk sincs, hogy milyenek legyenek a KO-programok. Ha a korlátozott optimalitás konstruktív elmélete valaha is megfogalmazható lesz, hinnünk kell, hogy a korlátozottan optimális programok tervezése nem fog túlságosan függni a használt számítógép részleteitől. A tudományos kutatást nagyon megnehezítené, ha például kiderülne, hogy egy gigabájtos memóriájú gép néhány kbájt memóriával való bővítése lényegi különbséget jelentene a KO-program tervében. Ahhoz, hogy ez ne történjen meg, a korlátozott optimalitás kritériumait kissé lazábban kell kezelni. Az aszimptotikus bonyolultság (A) függelék) mintájára definiálhatjuk az aszimptotikus korlátozott optimalitást, AKO) (asymptotic bounded optimality, ABO) (Russell és Subramanian, 1995). Tegyük fel, hogy egy P program egy M gép esetén korlátozottan optimális a környezetek E osztályában, ahol a környezetek komplexitása nem korlátozott. Ekkor a P' program egy AKO-program M részére E-ben, ha egy P programot egy kM gépen futtatva a teljesítményében túlszárnyalja, és ahol a kM gép k-szor gyorsabb (vagy nagyobb), mint M. Ha k nem bizonyulna óriásinak, elégedettek lehetnénk, ha nemtriviális környezetek és nemtriviális architektúrák esetén AKO-programokkal rendelkezünk. Kevés ráció lenne abban, hogy óriási erőfeszítések árán inkább KO-, mint AKO-programokat keressünk, ha a használható gépek nagysága és sebessége, úgy tűnik, egy adott idő alatt konstans mértékben úgyis nő.

Megkockáztathatjuk azt is, hogy a KO- vagy az AKO-programok – nagy teljesítőképességű számítógépek és bonyolult környezetek esetén – nem fognak szükségszerűen egyszerű és elegáns struktúrával rendelkezni. Láttuk már, hogy az általános rendeltetésű intelligenciához bizonyos fokú reflexszerű és tudatos képesség szükséges, ami a tudás és a döntéshozatali formák sokaságát, ezen formák mindegyikéhez a tanuló és a kompilálási mechanizmusokat, a következtetés vezérlésének módszereit és a tárgyterületre vonatkozó specifikus tudás nagy tárát jelenti. A korlátozottan optimális ágensnek adaptálódnia kell ahhoz a környezethez, amelyben tartózkodik, így belső szervezettsége végül az adott környezetre jellemző optimalizálási sémákat tükrözheti. Ez elvárható, hasonlóképpen ahhoz, ahogy a súlyukban és a lóerőben korlátozott versenyautók szélsőségesen komplikált konstrukciókig jutottak el. Az a sejtésünk, hogy a korlátozott optimalitáson alapuló mesterséges intelligencia tudománya nagy részben olyan folyamatok tanulmányozásából fog állni, amelyek révén egy ágensprogram a korlátozott optimalitáshoz fog konvergálni, és talán kevésbé fog az eredményül kapott, nehezen áttekinthető programok részleteivel törődni.

Összegezve, a korlátozott optimalitás koncepcióját jól definiált és kivitelezhető kutatási feladatnak javasoljuk a mesterséges intelligencia kutatása számára. A korlátozott optimalitás az optimális programokat specifikálja, és nem az optimális cselekvést. A cselekvést úgyis a programok generálják, és a programok azok, amelyek felett a tervező befolyással rendelkezik.