Vanaf februari 2025 verboden: Dit mag je met AI straks écht niet meer doen
22 jan 2025

De EU AI Act is in mei 2024 officieel gepubliceerd en markeert een historisch moment: het is de eerste wet ter wereld die zo breed en concreet regels stelt aan het gebruik van kunstmatige intelligentie. De invoering gaat gefaseerd, maar vanaf februari 2025 wordt het menens. Dan worden de eerste categorieën van AI-toepassingen volledig verboden binnen de Europese Unie.
Toch weten veel organisaties nog niet wat dat precies inhoudt — en dat is een probleem. Want onbewust gebruik van verboden AI kan niet alleen leiden tot forse boetes, maar ook tot reputatieschade en het verlies van klantvertrouwen.
🔥 Wat is verboden vanaf februari 2025?
De AI Act maakt een duidelijk onderscheid tussen vier risiconiveaus voor AI, waarbij de hoogste — “onaanvaardbaar risico” — simpelweg niet meer mag worden toegepast of aangeboden in de EU.
De volgende AI-systemen vallen daar per februari 2025 onder:
❌ Misleidende AI of deepfakes zonder vermelding
AI die mensen manipuleert of bedriegt, zonder dat ze dat weten.
Denk aan deepfakes die mensen of situaties nabootsen zonder duidelijke waarschuwing.
Dit geldt ook voor synthetische tekst, beeld of audio die de waarheid vervormt zonder context of bronvermelding.
❌ Social scoring door overheden of bedrijven
AI die individuen beoordeelt op gedrag of kenmerken met als doel hun rechten of toegang tot diensten aan te passen.
Denk aan algoritmes die kredietwaardigheid, gedrag of “maatschappelijke waarde” rangschikken en gebruiken om iemand te benadelen in een andere context.
❌ AI die kwetsbare groepen manipuleert
Systemen die bewust misbruik maken van kwetsbaarheden zoals leeftijd, mentale gesteldheid of sociaal-economische situatie.
Bijvoorbeeld targeting van kinderen met manipulerende reclame, of misleidende content gericht op ouderen.
❌ AI voor risicovoorspelling van crimineel gedrag
Het profileren of voorspellen van individueel strafbaar gedrag op basis van algoritmes zonder feitelijke aanleiding.
❌ Emotieherkenning op werk en in onderwijs
AI-systemen die emoties analyseren van medewerkers of leerlingen, bijvoorbeeld via gezichtsuitdrukkingen of stemanalyse, zijn straks verboden.
❌ Onrechtmatig gebruik van biometrische data
AI die gevoelige biometrische gegevens verwerkt, zoals gezichtsherkenning via beveiligingscamera’s of scraping van online beeldmateriaal, zonder expliciete toestemming of wettelijke basis.
🧠 Waarom zijn deze toepassingen verboden?
De EU kiest hier voor een harde lijn omdat deze AI-toepassingen menselijke autonomie ondermijnen, discriminatie kunnen veroorzaken, en de grondrechten van burgers in gevaar brengen. De focus ligt op bescherming van de samenleving, niet op innovatie tegen elke prijs.
🏢 Wat betekent dit voor jouw organisatie?
Ook als je zelf geen AI ontwikkelt, kun je wél aansprakelijk zijn als je zulke systemen gebruikt. Denk aan:
Het inzetten van deepfake-video’s in marketingcampagnes
Het gebruik van ontransparante AI bij klantsegmentatie
Het automatisch screenen van sollicitanten op basis van social media-activiteit of gedragsdata
Vanaf februari 2025 moet je als organisatie kunnen aantonen dat je geen verboden AI gebruikt. Doe je dat toch? Dan riskeer je:
Boetes tot €35 miljoen of 7% van je wereldwijde omzet
Juridische procedures en inspecties
Ernstige reputatieschade
✅ Wat kun je nu doen?
Breng in kaart welke AI-toepassingen je gebruikt
Ook in software van derden – tools die je HR, marketing of sales gebruikt kunnen AI bevatten.Check of je toepassingen mogelijk onder een verboden categorie vallen
Is er sprake van manipulatie, social scoring, of targeting van kwetsbare groepen?Zorg voor bewustwording binnen je organisatie
Trainingen zoals de AI Literacy Foundation zorgen dat je team de risico’s leert herkennen en vermijden.Bezoek onze uitlegpagina over de EU AI Act:
👉 Meer over de wet en wat jij moet doen
Conclusie
Februari 2025 komt snel dichterbij. Dit is het moment om te zorgen dat jouw organisatie veilig en verantwoord met AI omgaat. Niet alleen om boetes te voorkomen — maar om technologie op een manier in te zetten die vertrouwen wekt en toekomstbestendig is.
👉 Meer weten of direct aan de slag? Maak een afspraak.