
De AI-wereldtop in Parijs zit erop. Wetenschappers en bedrijfsleiders in Europa vragen zich af hoe het nu verder moet. Op 1 augustus 2024 trad immers de Europese AI-Act in werking, met strenge richtlijnen over het gebruik van artificiële intelligentie door bedrijven en overheden. In de eindverklaring van de top viel op dat de strenge regels in die AI-Act op vele vlakken gerelativeerd werden. Vooral de Amerikanen willen niet weten van strenge regels voor het gebruik van AI. “Het is nu afwachten hoe die Act in Europese wetgeving wordt gegoten”, zegt Ann Nowé, VUB-professor en hoofd van het AI-Lab en academisch directeur van FARI (het AI-instituut van VUB-ULB), die de top bijwoonde.
A.I. of wetenschappen studeren aan de VUB? Ontdek onze opleidingen!
“Het zijn vooral bedrijven die zich zorgen maken”, zegt Nowé. “Ze willen graag weten welke extra taken en regels de overheid zal opleggen bij de ontwikkeling van AI-toepassingen en wat dat allemaal zal kosten. Ze moeten immers concurreren met tech-giganten uit de VS en China die geen hinder ondervinden van die strengere regels en wetten, zolang ze niet op de Europese markt opereren.”
De AI-Act deelt de toepassingen van artificiële intelligentie in verschillende risiconiveaus op, gaande van toepassingen met onacceptabele risico’s tot en met toepassingen met een laag risico. Bij die eersten gaat het onder andere over het gebruik van sociale scoring, manipulatieve technieken en het gebruik van slimme camera’s met uitzondering van bepaalde veiligheidsituaties. Zo mogen AI-systemen geen kwetsbare groepen manipuleren of hen schade berokkenen.
Voor toepassingen met een hoog risico gelden eveneens strenge regels. AI-toepassingen in bijvoorbeeld de gezondheidszorg kunnen immers verstrekkende gevolgen hebben en zijn gebonden aan strikte privacy-wetgeving. Ontwikkelaars van datasystemen moeten kunnen aantonen dat hun systemen aan een aantal eisen voldoen inzake datakwaliteit, transparantie en veiligheid.
Bij toepassingen met een middelmatige risico’s, zoals de ontwikkeling van chatbots en generatieve AI-modellen, moet de gebruiker weten wanneer hij met AI-gegenereerde inhoud te maken krijgt. Voor toepassingen met een minimaal risico legt de AI-act geen regels op. Hierbij is het ook belangrijk te noteren dat AI uiteraard niet boven de wet staat.
“De meeste bedrijven die met AI bezig zijn, zijn op zich niet tegen de principes van de AI-Act”, zegt Nowé. “Maar ze vrezen een concurrentieel nadeel omdat de wetten die in het kielzog van de Act zullen volgen hen extra taken zullen opleggen om aan te tonen dat ze daadwerkelijk aan de regelgeving voldoen. De bezorgdheid is dat de implementatie van de AI act werkbaar moet blijven. Bovendien zorgt het feit dat wetgevers niet altijd de finesse begrijpen van waar AI precies over gaat voor spanning.”
Europa nuanceert de heisa rond de AI-Act. De wetgeving wordt in fasen geïmplementeerd en moet volledig in werking zijn in 2027. Die stapsgewijze implementatie moet bedrijven en toezichthouders voldoende tijd te geven om zich aan te passen aan de nieuwe regelgeving.
Meer info:
Ann Nowé: +32 474 94 67 34, ann.nowé@vub.be
Gefascineerd door technologie en programmeertalen? Houd je van abstract en logisch redeneren?
Ontdek VUB's opleidingen:
Artificiële IntelligentieComputerwetenschappenWiskunde en Data Science