![Vincent Ginis Vincent Ginis](/sites/default/files/styles/widescreen/public/2025-02/2024%20Vincent%20Ginis%20Thierry%20Geenen.png.jpg?h=73eabb53&itok=Jvuu1k5o)
Op de AI-veiligheidconferentie was niemand bezig met de gevaren van AI. Alles was PR en machtsstrijd. Het doet Vincent Ginis, VUB-professor Wiskunde, A.I. en Fysica, denken aan de film Don’t look up. Hij schreef er een opinistuk over in De Standaard.
A.I. of wetenschappen studeren aan de VUB? Ontdek onze opleidingen!
Toen Don’t look up uitkwam, vond ik dat een sterke film. Alleen jammer, dacht ik, hoe vaak de metafoor misbruikt zou worden in opiniestukken. En kijk, nu doe ik het zelf. In die film negeert de wereld een dreigende catastrofe omdat economische en politieke belangen zwaarder wegen.
De wereld had deze week haar Don’t look up-moment inzake artificiële intelligentie. In de week waarin uitlekte dat Sam Altman, de ceo van OpenAI, president Donald Trump vertelde dat Artificial General Intelligence (AGI) nog tijdens zijn ambtstermijn zal doorbreken en Dario Amodei, de ceo van Anthropic, superintelligentie voorspelt tegen ten laatste 2027, vond de AI-veiligheidstop in Parijs plaats. Alleen ging het niet echt over AI-veiligheid. De conferentie verliep meer volgens het script van de film: veel PR, veel machtsstrijd, nul concrete actie of consensus.
Ooit ging AI-veiligheid over de risico’s voor de mensheid. De dreiging dat miljoenen mensen hun job verliezen. Het gevaar dat desinformatie en manipulatie zich verspreiden op een schaal die de democratie ondermijnt. De kans dat AI op een dag beslissingen neemt die we niet meer begrijpen of kunnen controleren. Maar in Parijs draaide het om macht. Wie krijgt AI? Wie beheerst het? Wie loopt voorop? De focus verschoof van de risico’s naar geopolitiek. En dat is gevaarlijk.
"De mensheid is bezig een technologie te maken die haar kennis overtreft en is daar totaal niet op voorbereid"
De risico’s vereisen samenwerking. Hoe voorkomen we dat sommige AI-systemen gebouwd worden? Hoe vangen we de impact op als AI massaal jobs overbodig maakt? Zulke problemen los je niet per land op. Maar nu AI een strategisch bezit wordt, verdwijnt de noodzaak tot samenwerking, zo blijkt. Geopolitieke risico’s gaan per definitie over competitie.
Wat niet helpt, is dat de wetenschappers het zelf niet eens raken. De ene waarschuwt voor misbruik door criminelen en autoritaire regimes. De andere gelooft dat de problemen pas beginnen zodra AI op agent-niveau autonoom kan handelen. Een derde vreest AI die simpelweg te slim wordt. En dan zijn er nog de sceptici, die de mogelijkheden van de huidige modellen onderschatten. Elke groep leek goed vertegenwoordigd in Parijs. Dat gebrek aan consensus maakt het voor beleidsmakers makkelijk om het kamp te kiezen dat hen het beste uitkomt.
Tijdens de Britse AI-veiligheidstop in 2023 ging het nog over fundamentele risico’s. In Parijs draaide het om staatscontrole. AI-bedrijven worden nu behandeld als nationale troeven. Dat betekent minder transparantie, minder regulering, meer deals achter gesloten deuren. In plaats van een technologie die veilig is voor de mensheid, bouwen we een technologie die op de korte termijn veilig is voor de staten die haar bezitten.
Wat nu? Kijk omhoog. De mensheid is bezig een technologie te maken die haar kennis overtreft en is daar totaal niet op voorbereid. De eerste stap is simpel: benoemen wat er gebeurt. De dreiging is reëel, de versnelling is gevaarlijk en de prioriteiten liggen verkeerd. Er is nog een lange weg te gaan, maar we moeten ergens beginnen.
Gefascineerd door technologie en programmeertalen? Houd je van abstract en logisch redeneren?
Ontdek VUB's opleidingen:
Artificiële IntelligentieComputerwetenschappenWiskunde en Data Science