Vous savez maintenant que les réseaux de neurones apprennent en ajustant des poids et des biais. Mais comment fonctionne réellement le processus complet d'entraînement ? Comment savoir quand un modèle a suffisamment appris - ou trop appris ? Dans cette leçon, nous allons parcourir l'ensemble du parcours d'entraînement.
L'entraînement d'un modèle d'IA suit un cycle qui se répète encore et encore :
Cette boucle s'exécute des milliers, voire des millions de fois. Chaque répétition rapproche légèrement le modèle des bonnes réponses.
L'entraînement de GPT-4 aurait coûté plus de 100 millions de dollars en puissance de calcul seule. La boucle d'entraînement s'est exécutée sur des milliers de puces spécialisées pendant des mois.
Après chaque prédiction, nous avons besoin d'un moyen de mesurer à quel point le modèle s'est trompé. Cette mesure est appelée la perte (ou le coût), et la formule qui la calcule est la fonction de perte.
Pensez-y comme une cible de fléchettes. Le centre est la bonne réponse. La perte est la distance entre l'endroit où votre fléchette a atterri et le centre. L'objectif de l'entraînement est de minimiser cette distance au fil du temps.
Les fonctions de perte courantes incluent :
Sign in to join the discussion
Que mesure une fonction de perte dans l'entraînement de l'IA ?
Un passage complet à travers l'ensemble des données d'entraînement est appelé un epoch. L'entraînement implique généralement de nombreux epochs - le modèle voit les mêmes données plusieurs fois, s'améliorant légèrement à chaque tour.
Réviser pour un examen est comme exécuter des epochs. La première lecture est déroutante, mais chaque relecture construit la compréhension. Cependant, si vous relisez les mêmes notes cent fois, vous pourriez mémoriser le texte exact sans vraiment comprendre les concepts. L'IA a le même problème.
Le surapprentissage (overfitting) est l'un des problèmes les plus courants dans l'entraînement de l'IA. Il survient lorsque le modèle apprend les données d'entraînement trop bien - y compris leur bruit et leurs particularités - et échoue sur des données nouvelles, jamais vues.
Imaginez un étudiant qui mémorise chaque ancien sujet d'examen mot pour mot. Il obtient des résultats parfaits sur les anciens sujets mais peine dès que les questions changent, même légèrement. L'étudiant n'a pas appris la matière - il a mémorisé les réponses.
Signes de surapprentissage :
L'objectif de l'entraînement n'est pas d'obtenir un score parfait sur des données que le modèle a déjà vues. C'est de bien performer sur des données qu'il n'a jamais vues. C'est le véritable test de l'apprentissage.
Le problème inverse est le sous-apprentissage (underfitting). Il survient lorsque le modèle n'a pas suffisamment appris des données. Il performe mal à la fois sur les données d'entraînement et sur les nouvelles données.
Les causes du sous-apprentissage incluent :
Si le surapprentissage est comme mémoriser les anciens sujets, le sous-apprentissage est comme arriver à l'examen en ayant à peine ouvert le manuel.
Un modèle obtient 98 % d'exactitude sur les données d'entraînement mais seulement 60 % sur de nouvelles données. Quel est le problème le plus probable ?
Pour détecter le surapprentissage et le sous-apprentissage, nous divisons nos données en trois parties :
| Jeu | Objectif | Quand il est utilisé | |-----|----------|---------------------| | Jeu d'entraînement | Le modèle apprend à partir de ces données | Pendant l'entraînement | | Jeu de validation | Utilisé pour vérifier la progression et ajuster les paramètres | Pendant l'entraînement | | Jeu de test | Évaluation finale sur des données complètement inédites | Après l'entraînement |
Une répartition courante est 70 % entraînement, 15 % validation et 15 % test. Le modèle ne voit jamais le jeu de test avant la toute fin - c'est l'examen final.
Le jeu de validation est comme un examen blanc que vous passez entre les sessions de révision. Il vous indique à quel point vous apprenez bien sans gâcher le vrai examen. Si vos scores aux examens blancs commencent à baisser alors que vos scores sur les notes de cours continuent d'augmenter, vous savez que quelque chose ne va pas.
Savoir quand s'arrêter est crucial. Entraîner trop peu et le modèle sous-apprend. Entraîner trop et il surapprend. Le juste milieu est l'endroit où la perte de validation cesse de s'améliorer.
Une technique appelée arrêt précoce (early stopping) automatise cela :
Cela empêche le modèle de dépasser le point d'apprentissage utile et de glisser vers la mémorisation.
Qu'est-ce que l'« arrêt précoce » dans l'entraînement de l'IA ?
Certains entraînements modernes utilisent une technique appelée planification du taux d'apprentissage, qui réduit progressivement l'amplitude des modifications des poids à chaque étape - comme faire des pas de plus en plus petits et prudents à mesure que vous approchez du sommet d'une montagne.
Dans la dernière leçon, nous explorerons les dimensions éthiques de l'IA - le biais, l'équité, la vie privée et ce à quoi ressemble une IA responsable.