Je weet nu dat neurale netwerken leren door gewichten en biases aan te passen. Maar hoe werkt het volledige trainingsproces eigenlijk? Hoe weet je wanneer een model genoeg heeft geleerd - of juist te veel? In deze les doorlopen we de complete trainingsreis.
Het trainen van een AI-model volgt een cyclus die zich steeds herhaalt:
Deze lus draait duizenden of zelfs miljoenen keren. Elke herhaling duwt het model een stukje dichter naar de juiste antwoorden.
Het trainen van GPT-4 zou naar verluidt meer dan $100 miljoen aan rekenkracht hebben gekost. De trainingslus draaide maandenlang op duizenden gespecialiseerde chips.
Na elke voorspelling hebben we een manier nodig om te meten hoe fout het model zat. Deze meting wordt het verlies (of de kosten) genoemd, en de formule die het berekent is de verliesfunctie.
Zie het als een dartbord. De roos is het juiste antwoord. Het verlies is de afstand van waar je pijl landde tot de roos. Het doel van het trainen is om die afstand in de loop van de tijd te minimaliseren.
Veelgebruikte verliesfuncties zijn:
Sign in to join the discussion
Wat meet een verliesfunctie bij het trainen van AI?
Eén volledige doorgang door de gehele trainingsdataset wordt een epoch genoemd. Training omvat doorgaans vele epochs - het model ziet dezelfde data meerdere keren en wordt bij elke ronde iets beter.
Studeren voor een examen is net als het doorlopen van epochs. De eerste leesbeurt is verwarrend, maar elke herhaling bouwt begrip op. Maar als je dezelfde aantekeningen honderd keer herleest, kun je de exacte bewoordingen onthouden zonder de concepten echt te begrijpen. AI heeft hetzelfde probleem.
Overfitting is een van de meest voorkomende problemen bij AI-training. Het treedt op wanneer het model de trainingsdata te goed leert - inclusief de ruis en eigenaardigheden - en faalt op nieuwe, onbekende data.
Stel je een student voor die elk oud tentamen woord voor woord uit het hoofd leert. Ze scoren perfect op oude tentamens, maar hebben moeite zodra de vragen ook maar iets veranderen. De student heeft het vak niet geleerd - ze hebben de antwoorden gestampt.
Tekenen van overfitting:
Het doel van training is niet om perfect te scoren op data die het model al heeft gezien. Het doel is om goed te presteren op data die het nog nooit heeft gezien. Dat is de echte test van leren.
Het tegenovergestelde probleem is underfitting. Dit treedt op wanneer het model niet genoeg heeft geleerd van de data. Het presteert slecht op zowel trainingsdata als nieuwe data.
Oorzaken van underfitting zijn onder andere:
Als overfitting te vergelijken is met het stampen van oude tentamens, dan is underfitting alsof je het examen ingaat terwijl je nauwelijks het leerboek hebt opengeslagen.
Een model scoort 98% nauwkeurigheid op trainingsdata maar slechts 60% op nieuwe data. Wat is het meest waarschijnlijke probleem?
Om overfitting en underfitting te detecteren, splitsen we onze data in drie delen:
| Set | Doel | Wanneer gebruikt | |-----|------|-----------------| | Trainingsset | Het model leert van deze data | Tijdens de training | | Validatieset | Wordt gebruikt om voortgang te controleren en instellingen af te stemmen | Tijdens de training | | Testset | Eindevaluatie op volledig onbekende data | Na de training |
Een gebruikelijke verdeling is 70% training, 15% validatie en 15% test. Het model ziet de testset nooit totdat het allerlaatst - het is het eindexamen.
De validatieset is als een oefentoets die je maakt tussen studiesessies door. Het vertelt je hoe goed je leert zonder het echte examen te verpesten. Als je oefentoetsscores beginnen te dalen terwijl je scores op je studieaantekeningen blijven stijgen, weet je dat er iets mis is.
Weten wanneer je moet stoppen is cruciaal. Train te weinig en het model heeft underfitting. Train te veel en het heeft overfitting. De sweet spot is waar het validatieverlies stopt met verbeteren.
Een techniek genaamd early stopping automatiseert dit:
Dit voorkomt dat het model voorbij het punt van nuttig leren gaat en in memorisatie vervalt.
Wat is 'early stopping' bij AI-training?
Sommige moderne trainingsruns gebruiken een techniek genaamd learning rate scheduling, die geleidelijk vermindert hoeveel de gewichten bij elke stap veranderen - zoals het zetten van kleinere en voorzichtigere stappen naarmate je de top van een berg nadert.
In de laatste les verkennen we de ethische dimensies van AI - bias, eerlijkheid, privacy en hoe verantwoorde AI eruitziet.