dimenzió átka

Kapcsolódó fogalmak: 
MLP felépítése
Rövid szöveges bemutatás: 
A fogalom a neurális hálóknál, azon belül is az MLP hálónál kerül elő. A háló hatékonysága nagyban függ a használt rejtett rétegek és a használt neuronok számától. Az utóbbi években sok módszert adtak az optimális neuronszám meghatározására, azonban ezek a becslések, illetve számítási egyenletek nagy méretű feladatokra egyáltalán nem alkalmasak a dimenzió átka miatt. A dimenzió átka két részből áll, először is a dimenziók növekedésével a komplexitás exponenciálisan nő. A másik kijelentés pedig, hogyha ezen becsléseket alkalmazzuk több (dim>6) dimenziós problémához, akkor óriási mennyiségű neuront kéne ezek megoldásához felhasználni, azonban ennek a való életben sikeresen megoldott problémák ellent mondanak. Tehát a dimenziószám növekedésével a komplexitás ugyan tényleg nő, azonban a szükséges neuronok száma mégsem követi ezt a növekedést.