Wat zijn General Purpose AI-modellen volgens de AI-Act?
18 dec, 2024

Masoed Shakori
“De wet stelt een grens van 10^25 floating-point operations (FLOPs)”
Inhoudsopgave
Dit artikel behandeld de Q&A van het AI-bureau over AI-modellen voor algemeen gebruik. (General-Purpose AI Models in the AI Act – Questions & Answers, 20 nov 2024).
AI en de AI-Act
AI kan veel voordelen opleveren voor onze economie en samenleving. General Purpose AI modellen (GPAI) zijn hierbij belangrijk, omdat ze voor veel verschillende taken gebruikt kunnen worden. Deze modellen vormen de basis voor allerlei andere AI-systemen die in Europa en de rest van de wereld worden gebruikt. De AI-Act (AI-verordening) moet ervoor zorgen dat deze AI-modellen veilig en betrouwbaar zijn.
Om dit te bereiken, moeten de makers van GPAI goed begrijpen hoe hun modellen werken. Dit is belangrijk zodat de modellen goed geïntegreerd kunnen worden in andere AI-systemen en om te voldoen aan de regels van de AI-wet. De makers van de AI-modellen moeten technische documentatie opstellen en verstrekken aan het AI-bureau (The AI Office) en andere makers van AI-systemen. Ze moeten een beleid opstellen voor het gebruik van auteursrechten en een samenvatting van de gebruikte data publiceren.
Bovendien moeten makers van GPAI die aanzienlijke risico’s inhouden, de Europese Commissie daarvan op de hoogte stellen. Ze moeten deze risico’s beoordelen en verminderen, hun modellen evalueren, ernstige incidenten melden en zorgen voor goede cyberbeveiliging van hun modellen.

Afbeelding 1. De makers van GPAI moeten goed begrijpen hoe hun modellen werken. Dit is belangrijk zodat de modellen goed geïntegreerd kunnen worden in andere AI-systemen en om te voldoen aan de regels van de AI-Act.
GPAI
General Purpose AI modellen zijn AI-systemen die veel verschillende taken kunnen uitvoeren. Volgens de AI-Act is een General Purpose AI-model een AI-model dat getraind is met veel gegevens en heel veelzijdig is. Dit betekent dat het model veel verschillende taken goed kan uitvoeren. Dit staat in artikel 3, lid 63.
In de AI-Act wordt een GPAI-model gedefinieerd als “een AI-model, ook wanneer een dergelijk AI-model wordt getraind met een grote hoeveelheid gegevens met behulp van zelftoezicht op grote schaal, dat een aanzienlijke algemeenheid vertoont en bekwaam is om een breed scala aan verschillende taken uit te voeren, ongeacht de manier waarop het model in de handel wordt gebracht en dat kan worden geïntegreerd in een verscheidenheid aan downstreamsystemen of -toepassingen” (artikel 3, lid 63).
Voorbeelden van General Purpose AI-modellen:
- ChatGPT: Een geavanceerd taalmodel ontwikkeld door OpenAI dat gebruikers in staat stelt om op een natuurlijke manier te communiceren, vragen te stellen, ideeën te brainstormen en zelfs creatieve teksten te genereren.
- Microsoft Copilot: Geïntegreerd in Microsoft 365, biedt deze AI-assistent hulp bij het schrijven van e-mails, het maken van presentaties, en het analyseren van gegevens, waardoor het dagelijkse werk efficiënter en gemakkelijker wordt.
- Google Gemini: Deze AI is ontworpen om breed inzetbaar te zijn, van het genereren van inhoud tot het ondersteunen van zoekopdrachten en het leveren van gepersonaliseerde aanbevelingen, allemaal binnen de vertrouwde Google-omgeving.
Het model moet veelzijdig genoeg zijn om in verschillende systemen en toepassingen te werken. Overweging 98 van de AI-wet zegt dat modellen met minstens een miljard parameters en die zijn getraind met veel gegevens, als heel veelzijdig moeten worden gezien. Overweging 99 geeft nog meer uitleg. Het zegt dat grote AI-modellen die bijvoorbeeld tekst, audio, afbeeldingen of video’s kunnen genereren, goede voorbeelden zijn van GPAI-modellen. Deze modellen kunnen namelijk flexibel inhoud maken en kunnen daardoor veel verschillende taken goed uitvoeren. Ook modellen die alleen werken met tekst, audio, afbeeldingen of video’s kunnen heel veelzijdig zijn. Dit kan ook gelden voor modellen die speciaal voor een bepaalde taak zijn ontwikkeld of aangepast.
Overweging 98 luidt als volgt: “Overwegende dat de algemeenheid van een model onder meer ook kan worden bepaald door een aantal parameters, moeten modellen met ten minste een miljard parameters en getraind met een grote hoeveelheid gegevens die gebruikmaken van zelftoezicht op grote schaal, worden geacht een aanzienlijke algemeenheid te vertonen en op competente wijze een breed scala aan onderscheidende taken uit te voeren.”
Overweging 99 voegt hieraan toe dat “grote generatieve AI-modellen een typisch voorbeeld zijn voor een GPAI-model, aangezien zij een flexibele generatie van inhoud mogelijk maken, zoals in de vorm van tekst, audio, afbeeldingen of video, die gemakkelijk een breed scala aan onderscheidende taken kan vervullen.”
Het AI-bureau wil meer uitleg geven over wat precies een GPAI-model is. Dit doen ze op basis van onderzoek van het Gemeenschappelijk Centrum voor Onderzoek van de Commissie (Commission’s Joint Research Centre). Dit centrum werkt nu aan een project om hier meer duidelijkheid over te geven.

In-company Training
Microsoft Copilot organiseren?
Download direct een offerte:
Wat zijn GPAI’s met systemische risico’s?
Systemische risico’s zijn grote risico’s die kunnen ontstaan door de meest geavanceerde AI-modellen (artikel 3, lid 65). Deze risico’s kunnen bijvoorbeeld zijn: het makkelijker maken om gevaarlijke chemische of biologische wapens te ontwikkelen, problemen met de controle over autonome AI-modellen, of het verspreiden van verkeerde informatie en discriminatie (overweging 110). De meest geavanceerde modellen op een bepaald moment kunnen nieuwe risico’s met zich meebrengen, omdat ze de nieuwste technologie gebruiken. Sommige minder geavanceerde modellen kunnen ook risico’s hebben, afhankelijk van hoe ze worden gebruikt.
De AI-Act zegt dat een AI-model voor algemene doeleinden een systeemrisico heeft als het op dat moment een van de meest geavanceerde modellen is of een gelijkwaardig effect heeft (artikel 51, lid 1). Welke modellen als risicovol worden beschouwd, kan veranderen door nieuwe technologieën en hoe de maatschappij aan deze modellen gewend raakt. Op dit moment worden deze modellen vooral door een paar grote bedrijven gemaakt, maar dat kan in de toekomst veranderen.
De wet stelt een grens van 10^25 floating-point operations (FLOPs) voor het trainen van deze modellen (artikel 51, lid 1, onder a), en lid 2). Het trainen van zo’n model kost nu tientallen miljoenen euro’s (EpochAI, 2024). Het AI-bureau zal de technologische ontwikkelingen blijven volgen en de Commissie kan deze grens aanpassen om de meest geavanceerde modellen te blijven selecteren (artikel 51, lid 3). Dit kan betekenen dat de grenswaarde verandert of dat er extra grenzen bijkomen.
De AI-Act geeft de Commissie ook de mogelijkheid om andere modellen aan te wijzen als risicovol, op basis van criteria zoals het aantal gebruikers, de schaalbaarheid of toegang tot middelen (artikel 51, lid 1, punt b), bijlage XIII). Het AI-bureau wil later meer uitleg geven over hoe AI-modellen worden geclassificeerd als risicovolle modellen, gebaseerd op onderzoek van het Gemeenschappelijk Centrum voor Onderzoek van de Commissie, die momenteel aan een wetenschappelijk project hierover werkt.
Contact
Heb je een vraag of heb je advies nodig? Met het formulier hieronder kun je contact met ons opnemen: