De nieuwe Europese regelgeving voor AI

Update: 14 juni, 2023

Masoed Shakori Foto School of Data Science

Masoed Shakori

“De EU wil alleen met haar regelgeving optreden waar dat strikt noodzakelijk is: als de veiligheid en de grondrechten van haar burgers op het spel staan.”

Inhoudsopgave

Update 14 juni 2023
Vandaag heeft het Europees Parlement ingestemd met de AI wetgeving.

Het parlement stemde met overgrote meerderheid (499 stemmen voor, 28 tegen en 93 onthoudingen) in met het AI-wetsvoorstel dat de Europese Commissie in 2021 presenteerde, maar diende wel veel amendementen in voor de eerste AI-wet ter wereld. Nu kunnen de onderhandelingen met de EU-lidstaten over de definitieve vorm van de wet van start gaan. De regels moeten mensgerichte en betrouwbare AI bevorderen en de gezondheid, veiligheid, grondrechten en democratie beschermen tegen schadelijke gevolgen.

Introductie


In de jaren 40 schreef Isaac Asimov al over de drie wetten van de robotica. De wetten waren ingebouwde gedragsregels van de fictieve robots in zijn sciencefiction verhalen. Ze luiden als volgt:

  • Eerste Wet – Een robot mag een mens geen letsel toebrengen of door niet te handelen toestaan dat een mens letsel oploopt.
  • Tweede Wet – Een robot moet de bevelen uitvoeren die hem door mensen gegeven worden, behalve als die opdrachten in strijd zijn met de Eerste Wet.
  • Derde Wet – Een robot moet zijn eigen bestaan beschermen, voor zover die bescherming niet in strijd is met de Eerste of Tweede Wet.

De wetten lijken heel simpel en duidelijk. Toch bleek in die tijd al dat ze in de praktijk problemen opleveren. Asimov heeft later nog een Nulde wet toegevoegd en de wetten zijn later ook door wetenschappers aangescherpt. Inmiddels zijn we bijna een eeuw verder. We worden niet omringd met pratende en lopende robots, maar we zijn wel omringd met digitale systemen.

I Robot boek met regelgeving voor robots.
Afbeelding 1. In de jaren 40 schreef Isaac Asimov al over de drie wetten van de robotica. De wetten zijn in het leven geroepen om de mensheid in bescherming te nemen.

Van deze systemen kunnen sommige inmiddels zelf leren en conclusies trekken uit observaties. Dit kan met behulp van Machine Learning technieken. Geavanceerde systemen die hier gebruik van maken worden vaak benoemd met de term Artificial Intelligence (AI), of in het Nederlands kunstmatige intelligentie. AI biedt vele kansen en kan zelfs sectoren zoals zorg, transport en energie revolutioneren. Maar wat als AI verkeerde conclusies trekt zonder dat men het weet? Wat als de gebruikte observaties (de data) een vertekend beeld schetsen of ronduit vals zijn? Hoe kunnen we zorgen dat AI verantwoord wordt ingezet en geen schadelijke gevolgen heeft voor de maatschappij? Dit zijn geen makkelijk op te lossen vragen, maar de technologische ontwikkelingen gaan wel razendsnel door. Het liefst wil je de negatieve gevolgen voor zijn natuurlijk. 

De Europese Commissie heeft recentelijk nieuwe regelgeving voorgesteld voor het gebruik van kunstmatige intelligentie (AI). In de rest van dit artikel geef ik een overzicht van de ontwikkelingen.

De EU heeft een plan

De Europese Commissie (EC) heeft een plan. Een plan om ‘wereldleider te worden in het toepassen, benutten en bevorderen van de nieuwste AI technologieën.‘ Niet zomaar AI, maar AI dat mensgericht is, duurzaam, veilig, inclusief en betrouwbaar. De EC wil dit bereiken met de volgende drie punten:

  • Accelerate – Versnel investeringen in AI technologieën om een veerkrachtige economie en een sociaal herstel te stimuleren met behulp van nieuwe digitale oplossingen.
  • Act – Implementeer AI strategieën en programma’s volledig en tijdig zodat de EU op de eerste rij zit en daar alle voordelen van kan benutten.
  • Align –  Stem AI beleid af tussen lidstaten om versnippering tegen te gaan en wereldwijde uitdagingen aan te pakken.

Zo stelt de Commissie bijvoorbeeld voor om tussen 2021 en 2027 elk jaar minstens 1 miljard euro te investeren in AI via de Horizon Europe en Digital Europe programma’s. Zo wil de Commissie samenwerking tussen de Europese lidstaten stimuleren voor een maximale impact.

Waarom beleid en regelgeving?

De Europese Commissie wil met hun aanpak de veiligheid en grondrechten van mensen en bedrijven waarborgen en tegelijkertijd het draagvlak voor AI, investeringen en innovatie in de hele EU versterken. Margrethe Vestager, uitvoerend vicevoorzitter, zegt: “Voor kunstmatige intelligentie is vertrouwen een must, geen luxe.” Het doel van de Commissie is om de regelgeving toekomstbestendig en innovatievriendelijk op te stellen zodat iedereen AI kan vertrouwen en tegelijkertijd de EU-lidstaten concurrerend kunnen blijven.

De EU wil alleen met haar regelgeving optreden waar dat strikt noodzakelijk is: als de veiligheid en de grondrechten van haar burgers op het spel staan. Om dit te bereiken worden AI-systemen in risico categorieën verdeeld. AI-systemen die in de categorie ‘onaanvaardbaar’ vallen worden verboden.

Risico niveaus

De AI regelgeving zal in alle lidstaten op dezelfde wijze worden toegepast, daar wordt een risicogebaseerde aanpak voor gevolgd.

Onaanvaardbaar risico

AI-systemen die een duidelijke bedreiging vormen voor de veiligheid, bestaansmiddelen en rechten van mensen, worden verboden. Het gaat om AI-systemen of -toepassingen die menselijk gedrag manipuleren om de vrije wil van gebruikers te omzeilen (bijv. speelgoed met spraakondersteuning dat minderjarigen aanspoort tot gevaarlijk gedrag) en systemen die ‘social scoring’ door overheden mogelijk maken.

Hoog risico

AI-systemen die als risicovol worden aangemerkt en die worden gebruikt in:

  • kritieke infrastructuurnetwerken (bv. vervoer), die het leven en de gezondheid van burgers in gevaar kunnen brengen;
  • onderwijs of beroepsopleiding, die bepalend kunnen zijn voor de toegang tot onderwijs en professionele carrière (bv. verbeteren van examens);
  • veiligheidscomponenten van producten (bv. AI-toepassing in door robots ondersteunde chirurgie);
  • werkgelegenheid, personeelsbeheer en toegang tot zelfstandige arbeid (bv. software voor de screening van cv’s bij selectieprocedures);
  • essentiële particuliere en openbare diensten (bv. kredietwaardigheidsbeoordeling op basis waarvan men burgers geen lening wil toekennen);
  • wetshandhaving, die gevolgen kan hebben voor onze grondrechten (bv. beoordeling van de betrouwbaarheid van bewijsstukken);
  • beheer van migratie, asiel en grenscontrole (bv. verificatie van de echtheid van reisdocumenten);
  • rechtsbedeling en democratische processen (bv. toepassing van de wet op concrete feiten).
  • alle systemen voor biometrische identificatie op afstand worden als risicovol beschouwd en moeten aan strikte eisen voldoen. Op openbare plaatsen is het rechtstreekse gebruik van die systemen voor rechtshandhavingsdoeleinden in beginsel verboden. Beperkte uitzonderingen zijn strikt gedefinieerd en geregeld (bv. om een vermist kind te zoeken, een specifieke en nakende terroristische dreiging af te wenden of een dader of verdachte van een ernstig strafbaar feit op te sporen, te identificeren of te vervolgen). Er moet vooraf toestemming worden gegeven door een rechterlijke of andere onafhankelijke instantie, die slechts geldt voor een beperkte termijn en omgeving en voor specifieke databanken.

Beperkt risico

AI-systemen waarvoor specifieke transparantieverplichtingen gelden: Bij het gebruik van AI-systemen zoals chatbots moeten gebruikers zich ervan bewust zijn dat zij met een machine te maken hebben, zodat zij met kennis van zaken kunnen besluiten of ze die interactie al dan niet wensen voort te zetten.

Minimale risico

Het wetgevingsvoorstel staat het vrije gebruik toe van op AI gebaseerde videospellen of spamfilters. De overgrote meerderheid van AI-systemen valt in deze categorie. De risico’s voor de rechten of de veiligheid van burgers is hierbij minimaal.

Risico piramide voor AI regelgeving.
Afbeelding 2. De risico pyramide met de verschillende categorieën voor AI systemen.

Wat als mijn AI-systeem in de categorie hoog risico valt?

AI-systemen met een hoog risico zullen aan strenge verplichtingen worden onderworpen voordat zij op de markt mogen worden gebracht:
  • adequate systemen voor risicobeoordeling en -beperking;
  • hoge kwaliteit van de datasets die het systeem voeden om risico’s en discriminerende resultaten zoveel mogelijk uit te sluiten;
  • registratie van activiteiten om de traceerbaarheid van de resultaten te waarborgen;
  • gedetailleerde documentatie met alle nodige informatie om de autoriteiten in staat te stellen het doel en de conformiteit van het systeem te beoordelen;
  • duidelijke en adequate informatie voor gebruikers;
  • passend menselijk toezicht om de risico’s tot een minimum te beperken;
  • sterke robuustheid, beveiliging en nauwkeurigheid.
In afbeelding 3 is globaal weergegeven hoe het proces eruit ziet om een hoog risico AI-systeem goedgekeurd te krijgen. Zodra het AI-systeem op de markt is, zijn autoriteiten verantwoordelijk voor het markttoezicht, zorgen gebruikers voor menselijk toezicht en moeten aanbieders een post-market monitoringsysteem hebben. Aanbieders en gebruikers moeten ook ernstige incidenten en storingen melden.
AI lifecycle voorstel voor de nieuwe regelgeving.
Afbeelding 3. De stappen voor aanbieders om hoog risico AI systemen op de markt te kunnen krijgen.

Hoe nu verder met de regelgeving?

De nieuwe regelgeving is nu gepubliceerd als voorstel tot een Verordening. De huidige planning is om in de tweede helft van 2022 de Verordening in werking te laten treden. In deze periode zullen eerst de normen worden opgelegd en ontwikkeld en de opgezette bestuursstructuren operationeel worden. Op zijn vroegst zal in de tweede helft van 2024 de Verordening van toepassing worden op aanbieders van AI-systemen. Tegen die tijd moeten de normen gereed zijn en de eerste conformiteitsbeoordelingen uitgevoerd zijn.

bronnen
https://ec.europa.eu/commission/presscorner/detail/en/ip_21_1682
https://digital-strategy.ec.europa.eu/en/library/coordinated-plan-artificial-intelligence-2021-review
https://digital-strategy.ec.europa.eu/en/policies/regulatory-framework-ai

Scroll to Top