In dit programma hebben we onderzocht hoe data, algoritmen en neurale netwerken samenkomen om intelligente systemen te creëren. Maar intelligentie zonder verantwoordelijkheid kan echte schade aanrichten. In deze laatste les bekijken we de menselijke kant van AI - de vooroordelen die het overneemt, de ethische dilemma's die het oproept, en wat we er allemaal aan kunnen doen.
AI-bias treedt op wanneer een systeem resultaten produceert die systematisch oneerlijk zijn voor bepaalde groepen mensen. De AI is niet opzettelijk bevooroordeeld - het weerspiegelt simpelweg de patronen in de trainingsdata en de aannames van de ontwerpers.
Amazon's Wervingstool (2018) Amazon bouwde een AI om sollicitaties te screenen. Het werd getraind op cv's die in de voorgaande tien jaar waren ingediend - een periode waarin de techsector overwegend mannelijk was. De AI leerde cv's te bestraffen die het woord "vrouwen" bevatten (zoals "vrouwenschaakclub") en verlaagde de score van afgestudeerden van universiteiten exclusief voor vrouwen. Amazon schrapte de tool.
Fouten in Gezichtsherkenning Onderzoek van Joy Buolamwini aan het MIT toonde aan dat commerciële gezichtsherkenningssystemen foutpercentages hadden tot 34,7% voor vrouwen met een donkere huidskleur, vergeleken met slechts 0,8% voor mannen met een lichte huidskleur. De trainingsdata representeerde simpelweg niet alle gezichten gelijk.
Waarom discrimineerde Amazon's AI-wervingstool tegen vrouwen?
Bias kan in elke fase een AI-systeem binnendringen:
Sign in to join the discussion
AI creëert geen bias uit het niets. Het versterkt de vooroordelen die al aanwezig zijn in menselijke beslissingen, historische gegevens en maatschappelijke structuren. De data is een spiegel - en soms bevalt ons niet wat die weerkaatst.
AI kan nu realistische nepvideo's, afbeeldingen en audio genereren - bekend als deepfakes. Hoewel de technologie creatieve toepassingen heeft (filmeffecten, toegankelijkheidstools), brengt het ook serieuze risico's met zich mee:
Het detecteren van deepfakes wordt een wapenwedloop. Naarmate generatietools verbeteren, moeten detectietools dat ook doen - maar ze lopen altijd achter.
In 2019 gebruikten criminelen AI-gegenereerde voice cloning om een CEO na te bootsen en een medewerker ertoe te verleiden £220.000 over te maken. De stem was zo overtuigend dat de medewerker nooit vermoedde dat het nep was.
Als je een video zou zien van een wereldleider die een oorlog verklaart, hoe zou je dan verifiëren of die echt was? Welke tools of bronnen zou je vertrouwen? In een wereld van deepfakes wordt kritisch denken over media een overlevingsvaardigheid.
AI automatiseert taken die voorheen door mensen werden uitgevoerd. Dit schept zowel kansen als uitdagingen:
Taken met risico op automatisering:
Taken die minder snel volledig geautomatiseerd worden:
Het belangrijkste onderscheid is tussen taken automatiseren en banen vervangen. De meeste banen bestaan uit vele taken - AI automatiseert doorgaans sommige taken binnen een functie in plaats van de hele functie te elimineren.
Welk type werk is het MINST waarschijnlijk volledig door AI te automatiseren?
AI-systemen zijn hongerig naar data, en die honger roept belangrijke privacyvragen op:
De spanning is reëel: meer data maakt AI over het algemeen beter, maar het verzamelen van meer data kan individuele privacy schenden.
Onderzoekers toonden aan dat AI de seksuele geaardheid van een persoon kon voorspellen aan de hand van een foto met hogere nauwkeurigheid dan mensen - wat diepgaande vragen oproept over privacy, toestemming en de grenzen van wat AI mag afleiden.
Toonaangevende organisaties zijn tot een set principes gekomen voor het verantwoord bouwen van AI:
AI moet alle mensen gelijk behandelen. Modellen moeten worden getest over verschillende demografische groepen om te waarborgen dat geen enkele groep wordt benadeeld.
Mensen die worden beïnvloed door AI-beslissingen verdienen het om te begrijpen hoe die beslissingen tot stand komen. Black-box-modellen moeten vergezeld gaan van uitleg.
Er moet duidelijk eigenaarschap zijn wanneer AI schade veroorzaakt. "Het algoritme deed het" is geen acceptabel verweer.
AI-systemen moeten gegevensbeschermingswetten en individuele rechten respecteren. Dataverzameling moet worden beperkt tot wat werkelijk noodzakelijk is.
AI moet grondig worden getest vóór implementatie, vooral in risicovolle domeinen zoals gezondheidszorg, strafrecht en financiën.
Als een AI-systeem iemand een lening weigert, wie is er dan verantwoordelijk - de ontwikkelaar die het model bouwde, de bank die het implementeerde, of de data waarmee het werd getraind? Verantwoordelijkheid in AI is een van de lastigste vragen waarmee we worden geconfronteerd.
Welk principe voor verantwoorde AI stelt dat mensen moeten begrijpen hoe AI-beslissingen worden genomen?
Je hoeft geen AI-ingenieur te zijn om een verschil te maken. Zo kun je bijdragen aan verantwoordere AI:
Technologie is niet neutraal. De keuzes die worden gemaakt door de mensen die AI bouwen, implementeren en reguleren, vormen de wereld waarin we allemaal leven. Jouw bewustzijn en jouw stem doen ertoe.
Gefeliciteerd - je hebt Niveau 2: Grondbeginselen voltooid! Je begrijpt nu hoe data, algoritmen, neurale netwerken, training en ethiek samenkomen in de wereld van AI. De volgende stap is om zelf aan de slag te gaan.