07 aug Artificiële Intelligentie: wat verandert er?
De Europese Unie gaat regels opstellen voor het ontwikkelen en gebruiken van Artificiële Intelligentie (AI). Dit moet bevorderen dat alleen veilige AI-systemen op de markt komen.
De Artificial Intelligence Act (AI Act of AI-verordening) gaat sommige AI-systemen verbieden en stelt regels op voor risicovolle AI-systemen, zodat consumenten alleen nog te maken krijgen met veilige AI-systemen. De veiligheidsregels gelden voor aanbieders en gebruiksverantwoordelijken van de AI-systemen. Daarbij kan worden gedacht aan AI-systemen die helpen om beslissingen te nemen, voorspellingen te doen, inhoud te maken, of mensen te helpen.
Verboden en hoog risico AI-systemen
Sommige AI-systemen worden helemaal verboden. Zo mogen manipulatieve AI of AI voor emotieherkenning op het werk niet worden verkocht of gebruikt. AI-systemen voor risicovolle toepassingen (‘hoog-risico AI’) moeten aan verschillende eisen voldoen om de risico’s kleiner te maken voordat ze mogen worden verkocht of gebruikt. Dat zijn bijvoorbeeld systemen voor biometrische identificatie, rechtshandhaving en personeelszaken. Deze hoog-risico AI wordt vaak ingezet voor werving en selectie, in het onderwijs en bij veiligheid van kritieke infrastructuur.
Chatbots
Voor sommige systemen zoals chatbots en generatieve AI (waarmee tekst en beeld kunnen worden gemaakt) gelden speciale transparantie-eisen, zodat gebruikers weten dat ze met een AI-systeem of AI-gegenereerde content te maken hebben. Verder moet het voor consumenten duidelijk zijn waar en hoe zij AI bij een organisatie of bedrijf kunnen tegenkomen en welke risico’s dit kan hebben. Voor AI-systemen met een laag risico gelden overigens geen eisen. Laag-risico AI is bijvoorbeeld AI die zorgt dat de elektrische auto op een slim moment wordt opgeladen of AI die de logistiek in een bepaalde bedrijfstak optimaliseert.
Voor wie?
De regels gaan gelden voor aanbieders van AI (ontwikkelaars die een AI-systeem op de markt brengen of het zelf gaan gebruiken) en ‘gebruiksverantwoordelijken’ van AI-systemen: als iemand een AI-systeem gebruikt onder eigen verantwoordelijkheid.
Tijdpad
De AI-verordening ging in op 1 augustus 2024 en vanaf die datum gingen alle termijnen in de wet tellen. Dat houdt in dat vanaf begin 2025 de verboden AI-systemen niet meer op de EU-markt mogen zijn. Vanaf medio 2025 moeten grote AI-modellen die voor veel toepassingen kunnen worden ingezet aan de eisen voldoen. De Europese Commissie zal dit handhaven. Een jaar later (medio 2026) moeten alle hoog-risico AI-systemen aan de eisen voldoen: ze moeten een zogenoemde conformiteitsbeoordeling ondergaan en een CE-markering gebruiken. En weer een jaar later (medio 2027) gelden de eisen voor AI-systemen die worden ingebouwd in gereguleerde producten zoals medische toepassingen. Aanbieders van dit soort AI moeten ook een conformiteitsbeoordeling laten doen en een CE-markering gebruiken.
Landelijke regels
Naar verwachting komen er in 2025 landelijke regels voor sommige onderdelen van de AI-verordening. Bijvoorbeeld wie de toezichthouders worden voor de AI-verordening. Vanaf dat moment wordt er gecontroleerd of aanbieders en gebruiksverantwoordelijken zich houden aan de AI-verordening.