Generelle overvejelser

I dette kapitel er der i de eksempler, der er valgt til illustration, gjort brug af en række forskellige maskinlæringsstrategier, og i nogle tilfælde blev der også anvendt hybridnetværk. Et vigtigt praktisk spørgsmål vedrører valget af en algoritme til at løse et givet problem. Desværre findes der ikke noget korrekt svar. I denne sammenhæng er det vigtigt at reflektere over det såkaldte “no free lunch”-teorem af Wolpert og Macready , som siger: “For enhver algoritme opvejes enhver forhøjet ydeevne i forhold til en klasse af problemer af ydeevne i forhold til en anden klasse.”

Simpelt sagt er der ikke én model, der fungerer bedst for alle problemer. Hver metode kan dog være bedst tilpasset til en bestemt klasse af problemer. Det betyder, at det ikke er muligt at generalisere, at den algoritme, der klarer sig bedst i en given undersøgelse, er den bedste strategi for andre maskinlæringsopgaver. Det er derfor vigtigt at vælge den rette model for et givet problem. Desværre findes der ikke noget teoretisk grundlag, som man kan vælge på. Dette må gøres empirisk gennem forsøg og fejl. Undersøgelsen af algoritmevurderingen gav et godt specifikt eksempel på dette generelle princip.

Uanset hvilket valg der træffes, har enhver model indstillelige parametre eller hyperparametre. I tilfælde af neurale netværk omfatter de indstillelige parametre f.eks. antallet af knuder i hvert lag og antallet af lag. Backpropagation indebærer valg af momentum og indlæringshastighed. I forbindelse med et CNN skal der træffes beslutninger om størrelsen af konvolutionsmatrixen. De indledende vægte skal være tilfældige, men her genereres de fleste tilfældige tal af computeren, der starter med et “seed”-tal. Dette seed er også en parameter. Denne liste er på ingen måde udtømmende. For tilfældige skove er antallet af træer, antallet af grene, træets dybde osv. parametre, der skal vælges. For k-means skal man vælge antallet af klynger samt de k tilfældige talfrø, der starter den iterative proces med at definere klynger. Indstillelige parametre er en kendsgerning for den kunstige intelligens.

Den anden overvejelse ved valget af en model er modellens implicitte bias. Dette henviser ikke til eksterne skævheder som f.eks. dem, der skyldes valg af elementer i træningssættet, eller en værdibaseret vurdering af funktions- eller klasselabels, men snarere til de antagelser, der er indbygget i hver enkelt model. F.eks. antager K-means nogenlunde kugleformede klynger, der ligner hinanden i størrelse (selv om der findes bedre modeller, som ikke har disse begrænsninger). Naïve Bayes antager, at de attributter, der beskriver funktionsvektoren, er uafhængige af hinanden. Antagelser om datafordelinger er kernen i næsten alle algoritmer for maskinlæring. Det er vigtigt at forstå datasættets karakter tilstrækkeligt detaljeret til, at man kan vælge den algoritme, hvis begrænsninger er mindst kritiske for det pågældende datasæt. Desværre har brugen af begrebet “bias” en tendens til at antropomorfisere AI-programmet og slører de involverede spørgsmål.

Det er vanskeligt at påvise implicit bias i et deep learning-netværk, fordi vi ikke har nogen reel forståelse af, hvordan dette netværk behandler sine input for at nå frem til de korrekte output. Med andre ord er der problemer med forklarbarhed og fortolkelighed. Fortolkelighed er evnen til at forudsige virkningen af en ændring i input eller algoritmiske (indstillelige) parametre. Forklarbarhed er evnen til at forstå det grundlag, på hvilket algoritmen drager sin konklusion. Det kan f.eks. være betryggende at kunne forklare en kirurg, på hvilket grundlag AI’en har stillet diagnosen højgrads malignitet, eller hvordan den har skelnet mellem to morfologisk set ens, men biologisk set forskellige tumorer. Det er interessant, at hvis man spørger en højtuddannet patolog på referenceniveau om, hvordan han eller hun er nået frem til en diagnose, vil han eller hun ofte henvise til de “mange års erfaring”, der førte til diagnosen. Når de bliver presset til at angive mere specifikke kriterier, kan de finde på dem, men det er ofte på ad hoc-basis for at retfærdiggøre en beslutning, som de allerede intuitivt har truffet. Af denne grund generer de neurale netværks sorte boks-natur, selv om den foruroliger nogle, ikke andre i den kunstige intelligentsia.

Der er måder at få indsigt i, hvad der sker bag kulisserne, så vi kan løfte tæppet og se troldmanden på arbejde. For eksempel skaber saliency maps en visualisering af de pixels i et billede, der bidrager mest til modellens forudsigelser. Ved at beregne ændringen i den forudsagte klasse ved at anvende små justeringer på pixelværdierne kan vi måle den relative betydning af hver enkelt pixel for den endelige outputværdi. Dette er beskrevet i Ref. Andre tilgange indebærer, at man forsøger at bestemme aktiviteten af neuroner i de skjulte lag, efterhånden som backpropagation foregår, og desuden at opnå visuelle repræsentationer af de stadig mere komplekse output fra de skjulte lag ved at kortlægge karakteristika ved disse såsom intensitet, orienteringer, farver og former.

Disse tilgange kan give et vist indblik i, hvordan det neurale netværk skelner mellem klasser, men de “forklarer” stadig ikke, hvad der foregår i menneskelig forstand. Når en AI foretager et uventet og overraskende skaktræk, der ikke har nogen åbenlys strategisk betydning for en menneskelig observatør, og dette træk indleder en vindersekvens, giver disse interne foranstaltninger ikke noget fingerpeg om, hvordan programmet har skabt det træk, der i bakspejlet viste sig at være “genialt”. De skaber således ikke en ægte læringsoplevelse for den menneskelige observatør. På den anden side sker dette lejlighedsvis, når menneskelige observatører ser en menneskelig stormester i gang med at spille. Ikke desto mindre kan viden om den interne beslutningsproces i en maskinindlæringsalgoritme give oplysninger om udviklingen af bedre algoritmer, så der er noget, der taler for at insistere på AI-forklarbarhed, mens vi accepterer vores lejlighedsvise manglende evne til at forstå menneskelig genialitet.

På trods af alle disse forbehold får undersøgelser, der anvender forskellige “overfladiske” AI-læringsstrategier på det samme datasæt, ofte lignende resultater. Ankomsten af deep learning førte til en stor forbedring af maskinlæring i forhold til de fleste, hvis ikke alle, alternative tilgange. Når der er tale om komplekse, flerdimensionale funktionssæt, klarer neurale netværk sig væsentligt bedre end andre former for maskinlæring. Selv her, når artikler, der beskæftiger sig med det samme datasæt, men anvender variationer af netværksmodeller, sammenlignes, er de forbedringer, som hver enkelt af dem hævder, ofte inkrementelle. Selv om nogle er bedre end andre, synes de alle at konvergere omkring resultater, der opnår en nøjagtighed på over 90-95 % (med lignende resultater for de andre evalueringsmetoder). Dette kan dog blot skyldes, at der er blevet lagt stor vægt på at optimere det valgte program i hver af dem. Der er også forskelle i beregningskraft, som skal tages i betragtning. Af sidstnævnte grund bør ydelseshastighed aldrig bruges til at sammenligne en algoritme med en anden, medmindre de kører på nøjagtig samme platform. En anden grund er, at træningssættene ofte er forenklede og omhyggeligt kuraterede versioner af data, der findes i naturen. Dette giver mulighed for, at der i mindre strukturerede situationer kan observeres større forskelle. Endelig svarer de resultater, der opnås ved hjælp af en given algoritme i en bestemt situation, ikke altid til de resultater, der opnås ved hjælp af den samme algoritme i en anden situation. Med andre ord er tidligere resultater ikke en garanti for fremtidige resultater.

På grund af overvejelser som disse er der blevet anvendt forskellige ensemblemetoder samt hybridmodeller, der indebærer en kombination af to eller flere forskellige algoritmer i rækkefølge eller parallelt. Der er ovenfor givet eksempler på både multilabel-detektion og svag overvågning.

Articles

Skriv et svar

Din e-mailadresse vil ikke blive publiceret.