AI EducademyAIEducademy
🌳

AI-Fundamenten

🌱
AI Seeds

Begin bij nul

🌿
AI Sprouts

Bouw een fundament

🌳
AI Branches

Pas toe in de praktijk

🏕️
AI Canopy

Ga de diepte in

🌲
AI Forest

Beheers AI

🔨

AI-Meesterschap

✏️
AI Sketch

Begin bij nul

🪨
AI Chisel

Bouw een fundament

⚒️
AI Craft

Pas toe in de praktijk

💎
AI Polish

Ga de diepte in

🏆
AI Masterpiece

Beheers AI

🚀

Carrière Klaar

🚀
Interview Startplatform

Start je reis

🌟
Gedragsinterview Meesterschap

Beheers soft skills

💻
Technische Interviews

Slaag voor de codeerronde

🤖
AI- & ML-interviews

ML-interview meesterschap

🏆
Aanbod & verder

Bemachtig het beste aanbod

Alle programma's bekijken→

Lab

7 experimenten geladen
🧠Neuraal netwerk speeltuin🤖AI of mens?💬Prompt lab🎨Beeldgenerator😊Sentimentanalyse💡Chatbot bouwer⚖️Ethiek simulator
🎯Proef-sollicitatieGa naar het lab→
nav.journeyBlog
🎯
Over ons

AI-onderwijs toegankelijk maken voor iedereen, overal

❓
nav.faq

Common questions answered

✉️
Contact

Get in touch with us

⭐
Open Source

Openbaar gebouwd op GitHub

Begin met leren, het is gratis
AI EducademyAIEducademy

MIT-licentie. Open source

Leren

  • Opleidingen
  • Lessen
  • Lab

Community

  • GitHub
  • Bijdragen
  • Gedragscode
  • Over ons
  • FAQ

Ondersteuning

  • Koop een koffie voor me ☕
  • footer.terms
  • footer.privacy
  • footer.contact
AI & Engineering Opleidingen›🌿 AI Sprouts›Lessen›AI-modellen trainen
🏋️
AI Sprouts • Beginner⏱️ 15 min leestijd

AI-modellen trainen

AI-Modellen Trainen

Je weet nu dat neurale netwerken leren door gewichten en biases aan te passen. Maar hoe werkt het volledige trainingsproces eigenlijk? Hoe weet je wanneer een model genoeg heeft geleerd - of juist te veel? In deze les doorlopen we de complete trainingsreis.

De Trainingslus

Het trainen van een AI-model volgt een cyclus die zich steeds herhaalt:

  1. Voorspellen - Voer data door het model en krijg een voorspelling.
  2. Vergelijken - Controleer hoe ver de voorspelling afwijkt van het juiste antwoord.
  3. Aanpassen - Werk de gewichten bij om de fout te verkleinen.
  4. Herhalen - Doe het opnieuw met de volgende batch data.

Deze lus draait duizenden of zelfs miljoenen keren. Elke herhaling duwt het model een stukje dichter naar de juiste antwoorden.

Een circulair diagram dat de trainingslus toont: Voorspellen, Vergelijken, Aanpassen, Herhalen, met pijlen die elke stap in een cyclus verbinden
De trainingslus is de hartslag van AI-leren - voorspellen, vergelijken, aanpassen en herhalen.
🤯

Het trainen van GPT-4 zou naar verluidt meer dan $100 miljoen aan rekenkracht hebben gekost. De trainingslus draaide maandenlang op duizenden gespecialiseerde chips.

Verliesfuncties: Hoe Fout Zit het Model?

Na elke voorspelling hebben we een manier nodig om te meten hoe fout het model zat. Deze meting wordt het verlies (of de kosten) genoemd, en de formule die het berekent is de verliesfunctie.

  • Laag verlies = de voorspelling lag dicht bij het juiste antwoord.
  • Hoog verlies = de voorspelling zat er ver naast.

Zie het als een dartbord. De roos is het juiste antwoord. Het verlies is de afstand van waar je pijl landde tot de roos. Het doel van het trainen is om die afstand in de loop van de tijd te minimaliseren.

Veelgebruikte verliesfuncties zijn:

  • Mean Squared Error (MSE) - meet de gemiddelde kwadratische afstand tussen voorspellingen en werkelijke waarden. Wordt gebruikt voor het voorspellen van getallen.
  • Cross-Entropy Loss - meet hoe goed voorspelde kansen overeenkomen met de werkelijke categorieën. Wordt gebruikt voor classificatietaken.
Les 4 van 160% voltooid
←Introductie neurale netwerken

Discussion

Sign in to join the discussion

lessons.suggestEdit
🧠Snelle check

Wat meet een verliesfunctie bij het trainen van AI?

Epochs: Hoe Vaak Door de Data?

Eén volledige doorgang door de gehele trainingsdataset wordt een epoch genoemd. Training omvat doorgaans vele epochs - het model ziet dezelfde data meerdere keren en wordt bij elke ronde iets beter.

  • Epoch 1: Het model maakt veel fouten; het verlies is hoog.
  • Epoch 10: Het model is aanzienlijk verbeterd; het verlies daalt.
  • Epoch 50: Verbeteringen vertragen; het model nadert zijn beste prestatie.
  • Epoch 200: Het model begint mogelijk te onthouden - wat ons brengt bij het volgende onderwerp.
🤔
Think about it:

Studeren voor een examen is net als het doorlopen van epochs. De eerste leesbeurt is verwarrend, maar elke herhaling bouwt begrip op. Maar als je dezelfde aantekeningen honderd keer herleest, kun je de exacte bewoordingen onthouden zonder de concepten echt te begrijpen. AI heeft hetzelfde probleem.

Overfitting: De Student Die Stampt

Overfitting is een van de meest voorkomende problemen bij AI-training. Het treedt op wanneer het model de trainingsdata te goed leert - inclusief de ruis en eigenaardigheden - en faalt op nieuwe, onbekende data.

Stel je een student voor die elk oud tentamen woord voor woord uit het hoofd leert. Ze scoren perfect op oude tentamens, maar hebben moeite zodra de vragen ook maar iets veranderen. De student heeft het vak niet geleerd - ze hebben de antwoorden gestampt.

Tekenen van overfitting:

  • Trainingsnauwkeurigheid is zeer hoog (bijv. 99%).
  • Prestatie op nieuwe data is veel slechter (bijv. 75%).
  • Het model heeft in wezen de trainingsvoorbeelden onthouden.
💡

Het doel van training is niet om perfect te scoren op data die het model al heeft gezien. Het doel is om goed te presteren op data die het nog nooit heeft gezien. Dat is de echte test van leren.

Underfitting: De Student Die Niet Studeert

Het tegenovergestelde probleem is underfitting. Dit treedt op wanneer het model niet genoeg heeft geleerd van de data. Het presteert slecht op zowel trainingsdata als nieuwe data.

Oorzaken van underfitting zijn onder andere:

  • Het model is te eenvoudig voor de complexiteit van het probleem.
  • De training is te vroeg gestopt (niet genoeg epochs).
  • De kenmerken in de data zijn niet informatief genoeg.

Als overfitting te vergelijken is met het stampen van oude tentamens, dan is underfitting alsof je het examen ingaat terwijl je nauwelijks het leerboek hebt opengeslagen.

🧠Snelle check

Een model scoort 98% nauwkeurigheid op trainingsdata maar slechts 60% op nieuwe data. Wat is het meest waarschijnlijke probleem?

Validatie- en Testsets

Om overfitting en underfitting te detecteren, splitsen we onze data in drie delen:

| Set | Doel | Wanneer gebruikt | |-----|------|-----------------| | Trainingsset | Het model leert van deze data | Tijdens de training | | Validatieset | Wordt gebruikt om voortgang te controleren en instellingen af te stemmen | Tijdens de training | | Testset | Eindevaluatie op volledig onbekende data | Na de training |

Een gebruikelijke verdeling is 70% training, 15% validatie en 15% test. Het model ziet de testset nooit totdat het allerlaatst - het is het eindexamen.

🤔
Think about it:

De validatieset is als een oefentoets die je maakt tussen studiesessies door. Het vertelt je hoe goed je leert zonder het echte examen te verpesten. Als je oefentoetsscores beginnen te dalen terwijl je scores op je studieaantekeningen blijven stijgen, weet je dat er iets mis is.

Wanneer Stoppen met Trainen

Weten wanneer je moet stoppen is cruciaal. Train te weinig en het model heeft underfitting. Train te veel en het heeft overfitting. De sweet spot is waar het validatieverlies stopt met verbeteren.

Een techniek genaamd early stopping automatiseert dit:

  1. Monitor het validatieverlies na elke epoch.
  2. Als het een bepaald aantal epochs niet is verbeterd (genaamd patience), stop de training.
  3. Keer terug naar de gewichten van de beste epoch.

Dit voorkomt dat het model voorbij het punt van nuttig leren gaat en in memorisatie vervalt.

🧠Snelle check

Wat is 'early stopping' bij AI-training?

🤯

Sommige moderne trainingsruns gebruiken een techniek genaamd learning rate scheduling, die geleidelijk vermindert hoeveel de gewichten bij elke stap veranderen - zoals het zetten van kleinere en voorzichtigere stappen naarmate je de top van een berg nadert.

Belangrijkste Punten

  • De trainingslus herhaalt zich: voorspellen → vergelijken → aanpassen → herhalen.
  • Een verliesfunctie meet hoe ver voorspellingen van de waarheid afwijken.
  • Een epoch is één volledige doorgang door de trainingsdata.
  • Overfitting betekent data onthouden; underfitting betekent niet genoeg leren.
  • Data wordt gesplitst in trainings-, validatie- en testsets.
  • Early stopping voorkomt dat de training te ver gaat.

In de laatste les verkennen we de ethische dimensies van AI - bias, eerlijkheid, privacy en hoe verantwoorde AI eruitziet.