Algemene overwegingen

In dit hoofdstuk is bij de ter illustratie gekozen voorbeelden gebruik gemaakt van een verscheidenheid aan strategieën voor machinaal leren, en in sommige gevallen zijn ook hybride netwerken gebruikt. Een belangrijke praktische vraag betreft de keuze van een algoritme om een gegeven probleem op te lossen. Helaas is er geen juist antwoord. In dit verband is het van belang na te denken over de zogenaamde stelling van Wolpert en Macready dat “voor elk algoritme geldt dat een hogere prestatie in een bepaalde klasse van problemen wordt gecompenseerd door prestatie in een andere klasse.”

Eenvoudig gezegd: er is niet één model dat voor elk probleem het beste werkt. Elke methode kan echter het best zijn afgestemd op een bepaalde klasse van problemen. Dit betekent dat het niet mogelijk is om te generaliseren dat het best presterende algoritme in een bepaalde studie de beste strategie is voor andere machine-leertaken. Het is dus belangrijk het juiste model te kiezen voor een gegeven probleem. Helaas is er geen theoretische basis waarop kan worden gekozen. Dit moet empirisch gebeuren door trial and error. De studie naar de beoordeling van het algoritme is een goed specifiek voorbeeld van dit algemene principe.

Gelijk welke keuze er ook wordt gemaakt, elk model heeft afstelbare parameters of hyperparameters. In het geval van neurale netwerken bijvoorbeeld, omvatten de afstelbare parameters het aantal knooppunten in elke laag en het aantal lagen. Bij backpropagatie moet het momentum en de leersnelheid worden gekozen. Voor een CNN moeten beslissingen worden genomen over de grootte van de convolutiematrix. De initiële gewichten moeten worden gerandomiseerd, maar de meeste willekeurige getallen worden door de computer gegenereerd, te beginnen met een “zaad”-getal. Dat zaad is ook een parameter. Deze lijst is geenszins uitputtend. Voor random forests zijn het aantal bomen, het aantal takken, de boomdiepte, enzovoort parameters die moeten worden gekozen. Voor k-means moet men het aantal clusters kiezen, evenals de k willekeurige getalzaden die het iteratieve proces van het definiëren van clusters starten. Afstembare parameters zijn een feit voor de kunstmatige intelligentsia.

De andere overweging bij de keuze van een model is de impliciete bias van dat model. Dit heeft geen betrekking op externe vertekeningen zoals die welke voortvloeien uit de keuze van de elementen van de trainingsverzameling, of een op waarden gebaseerde beoordeling van de kenmerk- of klassenlabels, maar eerder op de veronderstellingen die in elk model zijn ingebakken. K-means bijvoorbeeld gaat uit van ruwweg bolvormige clusters die in grootte vergelijkbaar zijn met elkaar (hoewel er betere modellen zijn die deze beperkingen niet hebben). Naïve Bayes gaat ervan uit dat de attributen die de feature vector beschrijven onafhankelijk van elkaar zijn. Veronderstellingen over gegevensverdelingen liggen aan de basis van bijna elk algoritme voor machinaal leren. Het is belangrijk de aard van de dataset voldoende gedetailleerd te begrijpen om het algoritme te kunnen kiezen waarvan de beperkingen het minst kritisch zijn voor die dataset. Helaas heeft het gebruik van de term “bias” de neiging om het AI-programma te antropomorfiseren en de betrokken kwesties te verdoezelen.

De detectie van impliciete bias in een deep learning netwerk wordt bemoeilijkt doordat we geen echt begrip hebben van hoe dat netwerk zijn inputs verwerkt om tot de juiste outputs te komen. Met andere woorden, er zijn problemen met verklaarbaarheid en interpreteerbaarheid. Interpretatie is het vermogen om het effect van een verandering in de input of algoritmische (afstembare) parameters te voorspellen. Uitlegbaarheid is het vermogen om te begrijpen op welke basis het algoritme zijn conclusie trekt. Het kan bijvoorbeeld geruststellend zijn een chirurg uit te leggen op welke basis de AI tot de diagnose van een hooggradige kwaadaardigheid is gekomen, of hoe hij onderscheid heeft gemaakt tussen twee morfologisch vergelijkbare maar biologisch verschillende tumoren. Het is interessant dat wanneer men een patholoog van referentieniveau, met een hoge opleiding, vraagt hoe hij of zij tot een diagnose is gekomen, hij of zij vaak zal verwijzen naar de “jarenlange ervaring” die tot de diagnose heeft geleid. Wanneer hij of zij om meer specifieke criteria wordt gevraagd, kan hij of zij die wel verzinnen, maar vaak is dat op een ad hoc basis, om de beslissing te rechtvaardigen die reeds intuïtief is genomen. Om deze reden is het zwarte doos karakter van neurale netwerken voor sommigen verontrustend, maar voor anderen van de kunstmatige intelligentsia niet.

Er zijn manieren om enig inzicht te krijgen in wat er achter de schermen gebeurt, zodat we het gordijn kunnen optillen om de tovenaar aan het werk te zien. Bijvoorbeeld, saliency maps maken een visualisatie van de pixels in een afbeelding die het meest bijdragen aan de voorspellingen door het model. Door de verandering in de voorspelde klasse te berekenen door kleine aanpassingen in de pixelwaarden aan te brengen, kunnen wij het relatieve belang van elke pixel voor de uiteindelijke outputwaarde meten. Dit wordt besproken in Ref. . Andere benaderingen omvatten pogingen om de activiteit van neuronen in de verborgen lagen te bepalen naarmate de backpropagatie vordert, en daarnaast om visuele representaties van de steeds complexere outputs van de verborgen lagen te verkrijgen door kenmerken daarvan zoals intensiteit, oriëntaties, kleur en vormen in kaart te brengen.

Deze benaderingen kunnen enig inzicht verschaffen in de wijze waarop het neurale netwerk onderscheid maakt tussen klassen, maar “verklaren” nog steeds niet wat er in menselijke termen aan de hand is. Wanneer een AI een onverwachte en opzienbarende schaakzet doet die voor een menselijke waarnemer geen duidelijk strategisch belang heeft, en die zet een winnende reeks inleidt, geven deze interne maatregelen geen aanwijzing over hoe het programma de zet deed die, achteraf gezien, “briljant” bleek te zijn. Zij creëren dus geen echte leerervaring voor de menselijke toeschouwer. Aan de andere kant gebeurt dit soms wel wanneer menselijke waarnemers een menselijke grootmeester aan het werk zien. Desalniettemin kan kennis over het interne besluitvormingsproces van een machinaal lerend algoritme de ontwikkeling van betere algoritmen informeren, dus er valt iets te zeggen voor het aandringen op AI-verklaarbaarheid, terwijl we accepteren dat we af en toe niet in staat zijn om menselijk genie te begrijpen.

Ondanks al deze voorbehouden, krijgen studies waarbij verschillende “ondiepe” lerende AI-strategieën op dezelfde dataset worden gebruikt, vaak vergelijkbare resultaten. De komst van deep learning heeft geleid tot een grote verbetering in machine learning ten opzichte van de meeste, zo niet alle, alternatieve benaderingen. Wanneer complexe, multidimensionale feature sets worden behandeld, presteren neurale netwerken aanzienlijk beter dan andere vormen van machine learning. Zelfs hier, wanneer papers over dezelfde dataset maar met variaties van netwerkmodellen worden vergeleken, zijn de verbeteringen die door elk van hen worden geclaimd, meestal incrementeel. Hoewel sommige beter zijn dan andere, lijken ze allemaal te convergeren rond resultaten die een nauwkeurigheid van meer dan 90%-95% bereiken (met gelijkaardige resultaten voor de andere evaluatiemetrieken). Dit kan echter alleen het gevolg zijn van het feit dat bij elke methode zorgvuldig aandacht is besteed aan het optimaliseren van het gekozen programma. Er zijn ook verschillen in rekenkracht die in aanmerking moeten worden genomen. Om deze laatste reden mag de prestatiesnelheid nooit worden gebruikt om een algoritme met een ander te vergelijken, tenzij ze op precies hetzelfde platform draaien. Een andere reden is dat de trainingssets vaak vereenvoudigde en zorgvuldig samengestelde versies zijn van gegevens die in het wild worden aangetroffen. Dit houdt de mogelijkheid in dat in minder gestructureerde situaties grotere verschillen kunnen worden waargenomen. Ten slotte komen de resultaten die met een bepaald algoritme in een bepaalde setting zijn behaald, niet altijd overeen met de resultaten van hetzelfde algoritme in een andere setting. Met andere woorden, in het verleden behaalde resultaten bieden geen garantie voor de toekomst.

Om deze redenen zijn verschillende ensemble-methoden gebruikt, alsmede hybride modellen waarbij twee of meer verschillende algoritmen sequentieel of parallel worden gecombineerd. Voorbeelden zijn hierboven gepresenteerd voor zowel multilabel detectie en zwakke supervisie.

Articles

Geef een antwoord

Het e-mailadres wordt niet gepubliceerd.