Kunstmatige intelligentie is niet van de ene op de andere dag verschenen. Het is een verhaal van briljante ideeën, gedurfde voorspellingen, frustrerende tegenslagen en adembenemende doorbraken. Laten we samen door de tijdlijn wandelen.
In 1950 publiceerde de Britse wiskundige Alan Turing een paper genaamd Computing Machinery and Intelligence. Hierin stelde hij voor wat we nu de Turing Test noemen: als een machine zo overtuigend een gesprek kan voeren dat een mens niet kan zeggen of hij met een persoon of een computer praat, dan zouden we kunnen zeggen dat die machine kan "denken."
Turing bouwde zelf geen AI - maar hij gaf de wereld de vraag die het hele vakgebied lanceerde.
In de zomer van 1956 kwam een kleine groep onderzoekers samen op Dartmouth College in New Hampshire, VS. Ze bedachten de term "artificial intelligence" en deden een opmerkelijk optimistische voorspelling: ze geloofden dat machines binnen één generatie alles zouden kunnen wat een menselijk brein kan.
Dat gebeurde niet helemaal - maar de conferentie lanceerde AI officieel als studiegebied.
Vroege AI-programma's konden algebraproblemen oplossen, dammen en zelfs basale gesprekken voeren (zoals de chatbot ELIZA in 1966). Financiering stroomde binnen. Overheden en universiteiten geloofden dat menselijke AI om de hoek lag.
Wat was ELIZA?
De realiteit sloeg hard toe. Computers waren te traag, data was schaars en vroege AI kon niet omgaan met de rommeligheid van de echte wereld. Financiering droogde op en critici noemden AI overhyped. Deze sombere periode werd bekend als de eerste AI-winter.
Zie het als zaaien in bevroren grond - de ideeën waren goed, maar de technologie was er nog niet klaar voor.
In de jaren 1980 werden expertsystemen populair. Dit waren programma's vol door mensen geschreven regels - bijvoorbeeld "als de patiënt koorts heeft EN uitslag, overweeg mazelen." Bedrijven gaven miljoenen uit om ze te bouwen.
Sign in to join the discussion
Maar expertsystemen waren broos. Ze konden niet leren of zich aanpassen. Toen zakelijke resultaten tegenvielen, volgde eind jaren 1980 een tweede AI-winter.
Alles veranderde in 2012 toen een neuraal netwerk genaamd AlexNet de concurrentie verpletterde in de ImageNet-beeldherkenningscompetitie. Het gebruikte geen handgeschreven regels - het leerde van miljoenen afbeeldingen.
Deze doorbraak bewees dat deep learning (neurale netwerken met veel lagen) echt werkte als je genoeg data en rekenkracht had. Plotseling begonnen techgiganten miljarden te investeren.
| Jaar | Mijlpaal | |------|----------| | 1950 | Turing stelt de Turing Test voor | | 1956 | "Artificial intelligence" bedacht op Dartmouth | | 1966 | Chatbot ELIZA gecreëerd | | 1997 | IBM Deep Blue verslaat schaakkampioen Garry Kasparov | | 2011 | IBM Watson wint Jeopardy! | | 2012 | AlexNet wint ImageNet - deep learning komt op gang | | 2016 | DeepMinds AlphaGo verslaat Go-wereldkampioen Lee Sedol | | 2017 | Google publiceert het Transformer-architectuurpaper | | 2022 | ChatGPT wordt gelanceerd en bereikt 100 miljoen gebruikers in twee maanden |
In 2017 publiceerden Google-onderzoekers een paper getiteld Attention Is All You Need, waarin de Transformer-architectuur werd geïntroduceerd. Dit ontwerp stelde AI-modellen in staat om taal veel effectiever te verwerken dan ooit tevoren.
Transformers vormen de motor van de huidige grote taalmodellen - GPT-4, Claude, Gemini en andere. Ze zijn de reden dat je nu een natuurlijk gesprek kunt voeren met een AI-chatbot.
Hoe heette het paper uit 2017 dat de Transformer-architectuur introduceerde?
AI evolueert sneller dan ooit. We zien multimodale modellen die tekst, afbeeldingen en audio tegelijk verwerken. Het volgende hoofdstuk wordt nu geschreven - en het begrijpen van de geschiedenis helpt je om te begrijpen waar we naartoe gaan.
Wat veroorzaakte de AI-winters?