Általános megfontolások
A fejezetben a szemléltetésre kiválasztott példák különböző gépi tanulási stratégiákat alkalmaztak, és néhány esetben hibrid hálózatokat is használtak. Fontos gyakorlati kérdés az adott probléma megoldására szolgáló algoritmus kiválasztása. Sajnos nincs helyes válasz. Ebben az összefüggésben fontos elgondolkodni Wolpert és Macready úgynevezett “nincs ingyen ebéd” tételén, amely kimondja, hogy “bármely algoritmus esetében a problémák egy osztályában elért nagyobb teljesítményt ellensúlyozza a problémák egy másik osztályában elért teljesítmény.”
Egyszerűen fogalmazva, nincs egyetlen modell, amely minden problémára a legjobban működik. Az egyes módszerek azonban a problémák egy adott osztályához igazodhatnak a legjobban. Ez azt jelenti, hogy nem lehet általánosítani, hogy egy adott vizsgálatban legjobban teljesítő algoritmus a legjobb stratégia más gépi tanulási feladatokra is. Ezért fontos, hogy az adott problémához a megfelelő modellt válasszuk ki. Sajnos nincs olyan elméleti alap, amely alapján választani lehetne. Ezt empirikusan, próbálgatással és hiba útján kell megtenni. Az algoritmusértékelési tanulmány jó konkrét példát szolgáltatott erre az általános elvre.
Választástól függetlenül minden modellnek vannak hangolható paraméterei vagy hiperparaméterei. Például a neurális hálózatok esetében a hangolható paraméterek közé tartozik az egyes rétegek csomópontjainak száma és a rétegek száma. A backpropagáció magában foglalja a lendület és a tanulási sebesség megválasztását. A CNN esetében döntéseket kell hozni a konvolúciós mátrix méretéről. A kezdeti súlyokat véletlenszerűvé kell tenni, de ott a legtöbb véletlen számot számítógép generálja egy “magszámmal” kezdve. Ez a magszám szintén egy paraméter. Ez a lista korántsem teljes. A véletlen erdők esetében a fák száma, az ágak száma, a fa mélysége stb. olyan paraméterek, amelyeket meg kell választani. A k-means esetében meg kell választani a klaszterek számát, valamint a k véletlenszámú magot, amely elindítja a klaszterek meghatározásának iteratív folyamatát. A hangolható paraméterek a mesterséges intelligencia életének ténye.
A másik szempont a modell kiválasztásakor a modell implicit elfogultsága. Ez nem külső torzításokra utal, mint például a gyakorlóhalmaz elemeinek kiválasztásából, vagy a jellemző- vagy osztálycímkék értékalapú értékeléséből adódó torzításokra, hanem az egyes modellekbe beépített feltételezésekre. A K-means például nagyjából gömb alakú, egymáshoz hasonló méretű klasztereket feltételez (bár vannak jobb modellek, amelyek nem rendelkeznek ilyen megkötésekkel). A Naïve Bayes feltételezi, hogy a jellemzővektort leíró attribútumok függetlenek egymástól. Az adatok eloszlására vonatkozó feltételezések szinte minden gépi tanulási algoritmus alapját képezik. Fontos, hogy kellő részletességgel megértsük az adathalmaz természetét, hogy kiválaszthassuk azt az algoritmust, amelynek a megkötései a legkevésbé kritikusak az adott adathalmaz esetében. Sajnos az “elfogultság” kifejezés használata hajlamos antropomorfizálni a mesterséges intelligencia programot, és elhomályosítja az ezzel kapcsolatos kérdéseket.
A mélytanulási hálózatban lévő implicit elfogultság felismerését megnehezíti, hogy nincs valódi képünk arról, hogy a hálózat hogyan dolgozza fel a bemeneteit, hogy a helyes kimenetekhez jusson. Más szóval, problémák vannak a megmagyarázhatósággal és az értelmezhetőséggel. Az értelmezhetőség a bemenet vagy az algoritmikus (hangolható) paraméterek változásának hatását képes megjósolni. A megmagyarázhatóság az a képesség, hogy megértsük, milyen alapon vonja le az algoritmus a következtetését. Megnyugtató lehet például, ha egy sebésznek meg tudja magyarázni, hogy a mesterséges intelligencia milyen alapon jutott a magas fokú rosszindulatú daganat diagnózisára, vagy hogyan különböztet meg két morfológiailag hasonló, de biológiailag különböző daganatot. Érdekes, hogy ha valaki megkérdez egy referenciaszintű, magasan képzett patológust, hogy hogyan jutott el egy diagnózishoz, gyakran hivatkozik a “sokéves tapasztalatra”, amely a diagnózishoz vezetett. Ha konkrétabb kritériumokat kérdeznek tőlük, kitalálhatnak, de ez gyakran ad hoc alapon történik, hogy igazolják a már intuitívan meghozott döntést. Emiatt a neurális hálózatok fekete doboz jellege, bár egyesek számára nyugtalanító, a mesterséges intelligencia többi tagját nem zavarja.
Vannak módszerek arra, hogy némi betekintést nyerjünk abba, mi történik a színfalak mögött, hogy felhúzhassuk a függönyt, és meglássuk a varázslót munka közben. A saliencia-térképek például vizualizációt készítenek a kép azon pixeleiről, amelyek a leginkább hozzájárulnak a modell előrejelzéseihez. Azáltal, hogy kiszámítjuk az előre jelzett osztály változását a pixelértékek apró módosításainak alkalmazásával, mérhetjük az egyes pixelek relatív fontosságát a végső kimeneti érték szempontjából. Ezt a hivatkozásban tárgyaljuk. Más megközelítésekben megpróbáljuk meghatározni a rejtett rétegekben lévő neuronok aktivitását a backpropagáció előrehaladtával, és emellett vizuális reprezentációkat kapunk a rejtett rétegek egyre összetettebb kimeneteiről ezek olyan jellemzőinek leképezésével, mint az intenzitás, orientációk, színek és formák.
Ezek a megközelítések adhatnak némi betekintést abba, hogy a neurális hálózat hogyan tesz különbséget az osztályok között, de emberi szempontból még mindig nem “magyarázzák” meg, hogy mi történik. Amikor egy mesterséges intelligencia váratlan és meglepő sakklépést tesz, amelynek nincs nyilvánvaló stratégiai jelentősége az emberi megfigyelő számára, és ez a lépés egy győzelmi sorozatot indít el, ezek a belső mérések nem adnak támpontot arra, hogy a program hogyan hozta létre azt a lépést, amely utólag “zseniálisnak” bizonyult. Így nem nyújtanak valódi tanulási élményt az emberi megfigyelő számára. Másrészt, ez időnként megtörténik, amikor az emberi megfigyelők egy emberi nagymestert figyelnek játék közben. Mindazonáltal egy gépi tanulási algoritmus belső döntéshozatali folyamatának ismerete jobb algoritmusok fejlesztéséhez nyújthat információt, így van valami abban, hogy ragaszkodunk az AI magyarázhatóságához, miközben elfogadjuk, hogy időnként képtelenek vagyunk megérteni az emberi zsenialitást.
Mindezen fenntartások ellenére a különböző “sekélyes” tanulási AI-stratégiákat ugyanazon az adathalmazon alkalmazó tanulmányok gyakran hasonló eredményeket kapnak. A mély tanulás megjelenése a gépi tanulásban nagy előrelépést eredményezett a legtöbb, ha nem az összes alternatív megközelítéshez képest. Összetett, többdimenziós jellemzőhalmazok kezelése esetén a neurális hálózatok jelentősen felülmúlják a gépi tanulás más fajtáit. Még itt is, amikor az azonos adatkészlettel foglalkozó, de a hálózati modellek különböző változatait használó tanulmányokat hasonlítjuk össze, az egyes modellek által állított javulások általában inkrementálisak. Noha egyesek jobbak, mint mások, úgy tűnik, mindegyikük olyan eredmények körül konvergál, amelyek 90%-95%-nál nagyobb pontosságot érnek el (hasonló eredményekkel a többi értékelési metrika esetében). Ez azonban csupán annak tudható be, hogy mindegyikben gondosan ügyeltek a választott program optimalizálására. A számítási teljesítményben is vannak különbségek, amelyeket figyelembe kell venni. Ez utóbbi okból kifolyólag a teljesítménysebesség soha nem használható az egyik algoritmus és a másik összehasonlításakor, kivéve, ha pontosan ugyanazon a platformon futnak. Egy másik ok az, hogy a gyakorlóhalmazok gyakran a természetben található adatok egyszerűsített és gondosan kurátori változata. Ez felveti annak lehetőségét, hogy kevésbé strukturált helyzetekben nagyobb különbségek figyelhetők meg. Végül, egy adott algoritmus által egy környezetben elért eredmények nem mindig felelnek meg az ugyanazon algoritmus egy másik környezetben elért eredményeknek. Más szóval, a múltbeli teljesítmény nem jelent garanciát a jövőbeli eredményekre.
Az ilyen megfontolások miatt különböző ensemble módszereket, valamint két vagy több különböző algoritmus egymás utáni vagy párhuzamos kombinációját tartalmazó hibrid modelleket alkalmaztak. A fentiekben példákat mutattunk be mind a multilabel detektálásra, mind a gyenge felügyeletre.