Experts en Elon Musk roepen onderzoek naar artificiële intelligentie halt toe: "Niemand begrijpt goed hoe die systemen werken"

In een open brief roepen experts op om het onderzoek naar geavanceerde artificiële intelligentie zes maanden te pauzeren om eerst meer regels op poten te zetten. De recente vooruitgang zou "ernstige risico's voor de samenleving inhouden". De brief verzamelde al meer dan 1.100 handtekeningen, van onder meer Twitterbaas Elon Musk, mede-oprichter van Apple Steve Wozniak en auteur Yuval Noah Harari.

"Systemen van artificiële intelligentie die concurreren met de intelligentie van de mens kunnen grote risico's inhouden voor de samenleving en de mensheid. Dat blijkt uit uitgebreid onderzoek."

Zo start de open brief van de non-pro­fit­or­ga­ni­sa­tie Future of Life Institute waarin de gevaren van artificiële intelligentie (AI) worden aangekaart. "Geavanceerde AI zou een ingrijpende verandering kunnen betekenen in de geschiedenis van het leven op aarde, en zou met de gepaste zorg en middelen moeten worden beheerd", gaat de brief verder. 

"Helaas gebeurt dat niet, ook al zijn AI-laboratoria de afgelopen maanden verwikkeld geraakt in een uit de hand gelopen race om steeds krachtigere digitale breinen te ontwikkelen die niemand - zelfs hun makers niet - kan begrijpen, voorspellen of op een betrouwbare manier controleren."

1.125 handtekeningen

De open brief kan op dit moment al rekenen op de handtekening van 1.125 mensen, onder wie AI-experts en een paar van de grootste namen in de techwereld. Op de derde plek prijkt de naam van Twitter- en Teslabaas Elon Musk. 

Opvallend genoeg was Musk een van de oprichters van OpenAI. Dat is een bedrijf dat onderzoek doet naar artificiële intelligentie en met de veelbesproken chatbot ChatGPT op de proppen kwam. De afgelopen maanden heeft Musk wel al vaker zijn bezorgdheden geuit over de technologie. 

Eén van de ondertekenaars is de Belgische professor Tom Lenaerts van de VUB en ULB. Lenaerts heeft de brief voor twee redenen ondertekend. "Ten eerste ben ik betrokken bij een organisatie die overheden adviseert hoe artificiële intelligentie te gebruiken. Daarnaast ben ik betrokken geweest bij een onderzoek dat vaststelt welke problemen er kunnen zijn bij een te snelle ontwikkeling van AI-systemen."

En het is die snelle ontwikkeling die de experten zorgen baart. "Je gebruikt iets wat je niet begrijpt", zegt Lenaerts. "Wetenschappers hebben moeite om te weten wat die systemen juist aan het doen zijn, hoe ze aan hun informatie komen en hoe ze dat vertalen naar een boodschap."

Grote bedrijven bepalen wat AI-onderzoek inhoudt en dat is problematisch

Tom Lenaerts, professor artificiële intelligentie

Volgens Lenaerts is de opschaling van dergelijke AI-systemen een gevaar. "Een klein systeem is relatief makkelijk te begrijpen, maar men is gewoon gaan opschalen naar grotere varianten. Eigenlijk bouw je mastodonten en weet je niet juist wat ze zijn."

Open discussies en regelgeving

Voor Lenaerts is het vooral belangrijk dat de grote spelers, de Microsofts van deze wereld, aan tafel zitten om te discussiëren. "Je moet op een manier afspraken maken, via algemene standaarden of interne regels. Het gaat hier niet over onderzoekers of universiteiten die iets maken. Het zijn de grote bedrijven die bepalen wat AI-onderzoek inhoudt en dat alleen al is voor een deel problematisch", aldus Lenaerts.

Bekijk hier volledige gesprek met professor Tom Lenaerts in "Laat":

Videospeler inladen...

Meest gelezen