AI-tools trainen in logisch en abstract redeneren, blijft de heilige graal voor heel wat ontwikkelaars.
Foto: AP

Mens versus machine: AI verslaat ons nu ook bij simpele logische taken

Artificiële intelligentie kan nu ook bij eenvoudige taken op het gebied van begrijpend lezen en abstract redeneren de mens evenaren of zelfs overtreffen. Dat toont het recentste jaarrapport van Stanford University. Maar AI-expert Steven Latré nuanceert: "Over het algemeen zijn wij nog steeds intelligenter."

Het feit dat artificiële intelligentie (AI) op veel gebieden beter presteert dan mensen doet weinig wenkbrauwen meer fronsen. 

De laatste editie van het AI Index-rapport van Stanford, dat sinds 2017 jaarlijks verschijnt, zet de meest recente AI-ontwikkelingen van het afgelopen jaar op een rijtje. Het bewijst nog maar eens hoe veelbelovend dit brede vakgebied is.

“AI is veel beter dan wij in het herkennen van patronen op basis van eerdere voorbeelden. Wat een AI-tool zoals ChatGPT bijvoorbeeld uitstekend doet, is antwoorden bedenken op basis van eerdere patronen of bronnen uit de literatuur”, legt Steven Latré, hoofd Artificiële Intelligentie bij het onderzoekscentrum Imec, uit.

Op basis van die vaardigheden is het AI-programma in april vorig jaar nog met vlag en wimpel geslaagd voor het Amerikaanse advocatenexamen, een toelatingstest die voor veel kandidaat-advocaten een enorme beproeving vormt.

AI verbetert traag maar gestaag zijn zwakke punten

Maar alles wat logica en structuur betreft, ligt AI veel minder goed. “De systemen worden wel steeds beter, maar ze zitten nog niet op ‘ons’ niveau", stelt de Imec-expert gerust. "Denk maar aan een foto van een vaatwasser. Als je een AI-model vraagt wat nu de beste manier is om die te vullen, zal het wellicht nog steeds de duimen moeten leggen voor een kind van 10.”

Nog zo’n voorbeeld: een foto van een ruiter op een paard weergeven, is een koud kunstje voor AI. “Maar stel je de applicatie vervolgens de vraag of de ruiter nu op het paard zit of het paard op de ruiter, dan begint het systeem te haperen. Daarop zijn ook de zogenoemde captcha's met puzzels gebaseerd die we zo vaak online moeten oplossen voor we toegang krijgen tot specifieke datagevoelige websites.”

Toch is AI ook op die vlakken aan een gestage opmars bezig. “Het Stanfordrapport laat inderdaad zien dat veel AI-systemen voor verschillende menselijke vaardigheden een mooie vooruitgang boekten, ook voor de meer abstracte competenties. Maar ik zou nu ook niet durven stellen dat 2023 hét jaar van de artificial general intelligence (AGI) was”, aldus de onderzoeker.

Voor ontwikkelaars blijft het toevoegen van logica aan de nieuwe generatie AI-modellen dus de ultieme uitdaging.

"We proberen dat te doen door relaties te ontdekken uit patronen en gebruiken soms ook totaal nieuwe software die veel meer de focus legt op het denkproces van de mens", kadert de AI-specialist. Maar dat alles is heel wat complexer dan die patroonherkenning op zich. "Sommige wetenschappers geloven ook niet dat AI ooit in staat zal zijn om als een mens te redeneren."

Hoe dan ook tekent het rapport een flink aantal indrukwekkende nieuwkomers in de industrie en wetenschappen op, zoals bijvoorbeeld 'GraphCast' voor snellere weersvoorspellingen of 'Graph Networks for Materials Exploration' (GNoME) in de chemische sector.

“Artificiële Intelligentie kan een groot, tijdrovend deel van wetenschappelijke berekeningen overnemen. Hierdoor kunnen we sneller en goedkoper belangrijke zaken zoals nieuwe geneesmiddelen ontwikkelen.”

Extreme rekenkracht brengt verschillende risico's met zich mee

Maar ook binnen zo'n wetenschappelijke setting zijn er gevaren verbonden aan het gebruik van AI. “Niet iedere onderzoeker is ook een AI-expert, waardoor hij of zij de systemen verkeerd kan toepassen. Bovendien kan je een AI-model niet zo gemakkelijk ‘doorspitten’ om de gebruikte bronnen te achterhalen. Bij traditionele computerprogramma's heb je wel een blik achter de schermen.”

Een andere valkuil is de gigantische hoeveelheid berekeningen die AI-systemen uitvoeren. “Hierdoor wordt het steeds moeilijker om te snappen waarom een model tot een bepaald resultaat komt." Denk maar aan de recente controverse rond gekleurde Vikingen en nazi's van Afrikaanse of Aziatische afkomst bij AI-tool Google Gemini.

Ook het energieverbruik van deze systemen en de hoeveelheid water die nodig is om hun datacenters te koelen, staan niet bepaald bekend om hun duurzaamheid. “Grote systemen vragen puur op energievlak het equivalent van wat 1.000 gemiddelde gezinnen per jaar verbruiken.”

Er is dus nog veel werk aan de winkel. "We moeten nieuwe chips ontwikkelen die zo gespecialiseerd zijn voor de grote spelers op de markt dat ze ook efficiënter werken.” 

Dat zou ook het kostenplaatje ten goede komen. "Een dataset voor AI-gebruik opzetten, is een miljoeneninvestering. Dat kunnen universiteiten financieel minder goed aan dan de grote privéspelers."

Het rapport citeert 51 grote machine-learning systemen in de private sector in 2023, tegenover amper 15 in de academische wereld. “Bedrijven zoals OpenAI worden naast geldschieter ook ontwikkelaar, wat toch een machtsonevenwicht met zich meebrengt.”

Ethische uitdagingen

En dan zijn er nog de ethische uitdagingen. Zo verouderen de huidige criteria en tests om de objectiviteit en correctheid van AI-taken te beoordelen steeds sneller. Waar AI-beoordelingssystemen een decennium geleden nog 5-10 jaar van dienst waren, zijn de parameters nu vaak al binnen enkele jaren aan vervanging toe, stellen de Stanfordauteurs.

“Dat hoeft ook niet te verbazen als je weet dat dit vaak nog manueel mensenwerk is en er iedere maand wel een nieuwe versie van een bestaand AI-programma opduikt”, weet Latré. 

Patroonherkenning 'on steroids' is niet hetzelfde als intelligentie.

Steven Latré, hoofd AI bij Imec

Dat we steeds vaker achter de feiten aanhollen, is beangstigend, vindt de wetenschapper. Zo kan fake news zich makkelijker verspreiden. "AI is zeker niet feilloos. Dat merk je wanneer je een chatbot als ChatGPT regelmatig gebruikt. Patroonherkenning 'on steroids’ is niet hetzelfde als intelligentie."

"Het enige wat we kunnen doen om onjuistheden binnen nieuwe AI-systemen te bestrijden, is ze voor publicatie tot in de puntjes testen”,  zegt de expert. Meteen ook de reden waarom OpenAI’s langverwachte AI-videoprogramma ‘Sora’ nog steeds in ontwikkeling is.

EU AI Act: richtlijnen tegen discriminatie en privacyschending

Om misbruik van AI-technologie maatschappelijk tegen te gaan, heeft de 'EU AI Act' algemene ethische richtlijnen beschreven voor sectoren en bedrijven die AI-systemen maken of gebruiken. “Het zou nog beter zijn als we regelgeving hadden die niet beperkt bleef tot de grenzen van de Europese Unie, maar dat is gezien alle geopolitieke belangen helaas een utopie.”

De nieuwe Europese wetgeving, die in 2026 in voege zal treden, stelt onder meer dat AI niet zomaar mag worden ingezet voor gezichtsherkenning. “Al zullen sommige ethische vraagstukken wellicht altijd voer voor interpretatie zijn, en zal de realiteit ons ook hier blijven inhalen."

"Mensen voldoende voorlichten over de voordelen en de beperkingen van AI en de digitale kloof overbruggen, is daarom belangrijker dan ooit", besluit Latré.

Meest gelezen