Sinds 2 februari 2025 is een aantal AI-systemen verboden. AI-verordening.

Vanaf dan is het verboden om AI-systemen met een onaanvaardbaar risico te gebruiken.

Wat betekent dit voor werkgevers?

Werkgevers doen er goed aan om op te lijsten welke AI-systemen binnen hun onderneming worden gebruikt, door wie en voor welk doel. Daarnaast moeten zij vanaf 2 februari 2025 acties ondernemen om de AI-geletterdheid of -bewustwording binnen de onderneming te bevorderen.

Wat is een AI-systeem?

De verordening definieert een AI-systeem als een op een machine gebaseerd systeem dat met verschillende niveaus van autonomie werkt en aanpassingsvermogen vertoont. Het kan output genereren zoals voorspellingen, inhoud, aanbevelingen of beslissingen die invloed hebben op fysieke of virtuele omgevingen.

Onderscheid tussen AI-systemen op basis van risico

De verordening maakt onderscheid tussen AI-systemen op basis van hun risico voor gezondheid, veiligheid en grondrechten binnen de EU.

AI-systemen met onaanvaardbare risico’s (verboden vanaf 2 februari 2025)

Dit zijn AI-systemen die als onaanvaardbaar worden beschouwd omdat ze in strijd zijn met de waarden van de EU, zoals:

  • AI-systemen die personen manipuleren zonder dat ze zich hiervan bewust zijn.
  • AI-systemen die misbruik maken van kwetsbare groepen (bijv. kinderen, personen met een handicap).
  • Sociale scoring op basis van gedrag of persoonlijke kenmerken.
  • Emotieherkenningssystemen.
  • Realtime biometrische identificatie op afstand in openbare ruimten.

Werkgevers moeten nagaan of zij dergelijke AI-systemen gebruiken en deze vóór 2 februari 2025 uitfaseren. Vanaf 2 augustus 2025 kunnen organisaties die verboden AI-systemen ontwikkelen of inzetten, zware boetes krijgen.

AI-systemen met hoge risico’s (voorschriften vanaf 2 augustus 2026)

Deze AI-systemen zijn toegestaan, maar moeten voldoen aan strikte regels en een conformiteitsbeoordeling ondergaan. Het gaat onder meer om AI-systemen die worden ingezet bij:

  • Werving en selectie van personeel.
  • Beslissingen over arbeidsvoorwaarden, promotie of beëindiging van contracten.
  • Taakverdeling op basis van individueel gedrag of kenmerken.
  • Monitoring en evaluatie van prestaties en gedrag op de werkplek.

Werkgevers die AI-systemen met een hoog risico gebruiken, moeten onder andere:

  • Technische en organisatorische maatregelen nemen om correcte toepassing te waarborgen.
  • Menselijk toezicht organiseren door gekwalificeerd personeel.
  • Relevante en representatieve inputdata garanderen.
  • Risico’s monitoren en rapporteren.
  • Werknemers informeren over het gebruik van dergelijke AI-systemen.

AI-systemen met beperkte risico’s (voorschriften vanaf 2 augustus 2026)

Deze AI-systemen hebben een beperkte impact op rechten van EU-burgers, zoals:

  • AI-systemen voor documentclassificatie of duplicaten zoeken.
  • AI die taal verbetert zonder inhoudelijke wijzigingen.
  • AI die afwijkingen in besluitvorming detecteert.

Voor dergelijke systemen gelden informatie- en transparantieverplichtingen:

  • Gebruikers moeten weten dat ze met een AI-systeem interageren (bijv. chatbots).
  • AI-gegenereerde of bewerkte media (zoals deepfakes) moeten als zodanig worden gemarkeerd.
  • AI-gegenereerde tekst voor publieke informatie moet worden geïdentificeerd.

AI-systemen met minimale risico’s

Voor AI-systemen zonder of met minimale risico’s gelden geen specifieke verplichtingen.

AI-geletterdheid en beleid

Vanaf 2 februari 2025 moeten werkgevers maatregelen nemen om AI-geletterdheid binnen hun organisatie te verhogen. Dit kan door middel van trainingen of specifieke opleidingen.

Daarnaast is het aan te raden om een AI-policy op te stellen waarin wordt vastgelegd welke AI-systemen gebruikt mogen worden, voor welke doeleinden en door wie.

AI en GDPR (AVG)

De AI-verordening moet samen worden bekeken met de GDPR. Belangrijke aandachtspunten:

  • AI-systemen die persoonsgegevens verwerken, moeten voldoen aan de GDPR-beginselen.
  • Menselijk toezicht blijft essentieel bij geautomatiseerde besluitvorming.
  • Gegevensbeveiliging moet worden gewaarborgd gedurende de verwerking.

Sancties

Wie de regels overtreedt, riskeert aanzienlijke boetes. Voor verboden AI-systemen kan de boete oplopen tot 35 miljoen euro of 7% van de jaarlijkse omzet. De sancties gelden vanaf 2 augustus 2025.

Wat moet je als werkgever doen?

  1. Inventariseren welke AI-systemen binnen de organisatie gebruikt worden.
  2. Beoordelen welk risiconiveau deze AI-systemen hebben.
  3. Actie ondernemen:
  • Verboden AI-systemen uitschakelen vóór 2 februari 2025.
  • AI-geletterdheid bevorderen binnen de organisatie.
  • Voorbereidingen treffen op de verplichtingen rond AI-systemen met hoge en beperkte risico’s.

Door deze stappen tijdig te nemen, kan je als werkgever voldoen aan de Europese AI-verordening en mogelijke sancties vermijden.

Bronnen:

Recente vacatures

Nieuw

Je fungeert als bemiddelaar tussen klant, transport (logistiek) en leveranciers. Hierbij creëer je vertrouwen en stabiliteit in de dagdagelijkse operaties.

Service Engineer

Regio Eeklo - Maldegem
Nieuw

Als Service Engineer bij ons bedrijf speel je een cruciale rol in het leveren van hoogwaardige service en ondersteuning aan onze klanten. 

Boekhouder

Regio Gent
Nieuw

Als vaste partner van onze klant gelegen te Gent actief in de biotechnologische sector zijn wij steeds op zoek naar sterke medewerkers

Quality Officer

Regio Waregem
Nieuw

Als Quality Officer speel je een cruciale rol in het waarborgen en verbeteren van de kwaliteitsprocessen binnen ons labo QC.