Tout au long de ce programme, nous avons exploré comment les données, les algorithmes et les réseaux de neurones se combinent pour créer des systèmes intelligents. Mais l'intelligence sans responsabilité peut causer de vrais dégâts. Dans cette dernière leçon, nous examinons le côté humain de l'IA - les biais qu'elle hérite, les dilemmes éthiques qu'elle soulève, et ce que nous pouvons tous faire pour y remédier.
Le biais de l'IA survient lorsqu'un système produit des résultats qui sont systématiquement injustes envers certains groupes de personnes. L'IA n'est pas délibérément partiale - elle reflète simplement les motifs présents dans ses données d'entraînement et les hypothèses de ses concepteurs.
L'outil de recrutement d'Amazon (2018) Amazon a construit une IA pour trier les candidatures. Elle a été entraînée sur les CV soumis au cours des dix années précédentes - une période où l'industrie technologique était massivement masculine. L'IA a appris à pénaliser les CV contenant le mot « femmes » (comme dans « club d'échecs féminin ») et à déclasser les diplômées d'universités exclusivement féminines. Amazon a abandonné l'outil.
Les défaillances de la reconnaissance faciale Les recherches de Joy Buolamwini au MIT ont révélé que les systèmes commerciaux de reconnaissance faciale avaient des taux d'erreur allant jusqu'à 34,7 % pour les femmes à peau foncée, contre seulement 0,8 % pour les hommes à peau claire. Les données d'entraînement ne représentaient tout simplement pas tous les visages de manière égale.
Pourquoi l'outil de recrutement d'Amazon discriminait-il les femmes ?
Le biais peut s'infiltrer dans un système d'IA à chaque étape :
Sign in to join the discussion
L'IA ne crée pas de biais à partir de rien. Elle amplifie les biais déjà présents dans les décisions humaines, les archives historiques et les structures sociétales. Les données sont un miroir - et parfois nous n'aimons pas ce qu'il reflète.
L'IA peut désormais générer des vidéos, images et audios faux mais réalistes - connus sous le nom de deepfakes. Bien que cette technologie ait des usages créatifs (effets de cinéma, outils d'accessibilité), elle pose aussi de sérieux risques :
Détecter les deepfakes devient une course aux armements. À mesure que les outils de génération s'améliorent, les outils de détection doivent suivre - mais ils ont toujours un temps de retard.
En 2019, des criminels ont utilisé le clonage vocal par IA pour usurper l'identité d'un PDG et piéger un employé afin qu'il transfère 220 000 £. La voix était si convaincante que l'employé n'a jamais soupçonné la supercherie.
Si vous voyiez une vidéo d'un dirigeant mondial déclarant la guerre, comment vérifieriez-vous son authenticité ? Quels outils ou sources seriez-vous prêt à croire ? Dans un monde de deepfakes, la pensée critique face aux médias devient une compétence de survie.
L'IA automatise des tâches qui étaient auparavant effectuées par des humains. Cela crée à la fois des opportunités et des défis :
Tâches exposées au risque d'automatisation :
Tâches moins susceptibles d'être automatisées :
La distinction clé est entre automatiser des tâches et remplacer des emplois. La plupart des emplois sont des ensembles de nombreuses tâches - l'IA tend à automatiser certaines tâches au sein d'un rôle plutôt qu'à éliminer le rôle entièrement.
Quel type de travail est le MOINS susceptible d'être entièrement automatisé par l'IA ?
Les systèmes d'IA sont avides de données, et cette avidité soulève d'importantes questions de vie privée :
La tension est réelle : plus de données rendent généralement l'IA meilleure, mais en collecter davantage peut porter atteinte à la vie privée individuelle.
Des chercheurs ont démontré que l'IA pouvait prédire l'orientation sexuelle d'une personne à partir d'une photo avec une précision supérieure à celle des humains - soulevant de profondes questions sur la vie privée, le consentement et les limites de ce que l'IA devrait être autorisée à inférer.
Les grandes organisations ont convergé vers un ensemble de principes pour construire l'IA de manière responsable :
L'IA devrait traiter toutes les personnes de manière équitable. Les modèles devraient être testés sur différentes données démographiques pour s'assurer qu'aucun groupe n'est désavantagé.
Les personnes affectées par les décisions de l'IA méritent de comprendre comment ces décisions sont prises. Les modèles opaques (boîtes noires) devraient être accompagnés d'explications.
Il doit y avoir une responsabilité claire lorsque l'IA cause un préjudice. « C'est l'algorithme qui l'a fait » n'est pas une défense acceptable.
Les systèmes d'IA doivent respecter les lois sur la protection des données et les droits individuels. La collecte de données devrait être limitée au strict nécessaire.
L'IA devrait être rigoureusement testée avant son déploiement, en particulier dans les domaines à enjeux élevés comme la santé, la justice pénale et la finance.
Si un système d'IA refuse un prêt à quelqu'un, qui est responsable - le développeur qui a construit le modèle, la banque qui l'a déployé, ou les données qui l'ont entraîné ? La responsabilité en matière d'IA est l'une des questions les plus difficiles auxquelles nous sommes confrontés.
Quel principe d'IA responsable stipule que les gens devraient comprendre comment les décisions de l'IA sont prises ?
Vous n'avez pas besoin d'être ingénieur en IA pour faire la différence. Voici comment vous pouvez contribuer à une IA plus responsable :
La technologie n'est pas neutre. Les choix faits par les personnes qui construisent, déploient et régulent l'IA façonnent le monde dans lequel nous vivons tous. Votre sensibilisation et votre voix comptent.
Félicitations - vous avez terminé le Niveau 2 : Les fondamentaux ! Vous comprenez maintenant comment les données, les algorithmes, les réseaux de neurones, l'entraînement et l'éthique s'articulent dans le monde de l'IA. La prochaine étape est de passer à la pratique.