Laatste Verhalen

Blijf op de hoogte van alles bij Approach

Publication

AI is een blijvertje, net als de regulering ervan

Publicatiedatum

05.01.2026

De AI-wet van de EU verandert de manier waarop organisaties AI kunnen inzetten – afhankelijk van het risiconiveau en hun rol in de waardeketen. Onze GRC-expert Kevin Lavrijssen geeft een duidelijk overzicht van wat er gaat komen, wanneer het van toepassing is en hoe je de eerste stappen kunt zetten op weg naar compliance en een sterkere AI-governance.

AI verhoogt productiviteit

Kunstmatige intelligentie is niet langer een futuristisch concept, maar is steeds meer ingebed in alle onderdelen van het dagelijks leven. Tools zoals Copilot en ChatGPT hebben onze manier van werken, leren en communiceren veranderd. Van het opstellen van e-mails tot geavanceerde analyses, AI is een belangrijke drijfveer geworden voor productiviteit en innovatie. Bedrijven maken zelfs gebruik van de technologie voor klantenservice, fraudedetectie en zelfs strategische besluitvorming.

AI vormt een maatschappelijk risico

Helaas brengt deze klasse van technologieën ook echte maatschappelijke risico’s met zich mee. Modellen kunnen worden gebruikt om te bepalen of je in aanmerking komt voor een hypotheek of geschikt bent voor een baan. Het is dan gemakkelijk te begrijpen dat de loop van je leven ernstig kan worden veranderd door een statistisch model. Dit wordt problematisch als blijkt dat het model is getraind op bevooroordeelde gegevens en valse patronen aan het licht heeft gebracht. En dan hebben we het nog niet eens over meer exotische toepassingen zoals emotieherkenning of voorspellend politiewerk.

Afweging tussen innovatie en risico

Deze afweging tussen mogelijkheden voor economische groei en maatschappelijke risico’s blijkt beleidsmakers over de hele wereld behoorlijk dwars te zitten. Op het spectrum variërend van het volledig kapitaliseren van economische groei tot een regelrecht verbod op AI, besloot de Europese Commissie te kiezen voor een evenwichtige, op risico’s gebaseerde aanpak in de vorm van de AI-wet.

De EU AI-wet

De AI-wet van de EU begint met de erkenning dat niet alle AI-gebruiksgevallen hetzelfde niveau van maatschappelijk risico inhouden. Vervolgens worden verschillende risicoklassen onderscheiden:

  • Onaanvaardbaar risico (verboden): bijv. individueel voorspellend politiewerk
  • Hoog risico: bijv. Kredietscorende modellen
  • Transparantierisico: bijv. chatbots voor klantenservice

Bij het bekijken van een specifieke use case erkende de Commissie ook dat niet alle deelnemers in de waardeketen van het onderliggende systeem dezelfde verantwoordelijkheden dragen.

Onder de AI-wet zijn de verplichtingen waaraan een organisatie moet voldoen dus afhankelijk van zowel de risicoclassificatie van hun AI-gebruikscasus als hun rol in de waardeketen van het onderliggende systeem.

Uitrolbaar

De Commissie erkent dat niet alle AI-toepassingen evenveel risico’s inhouden en heeft daarom gekozen voor een gefaseerde, risicogebaseerde invoering van de verordening. Dit geeft bedrijven en overheidsinstanties ruim de tijd om zich voor te bereiden.

Eerder dit jaar werden de verplichtingen met betrekking tot verboden use cases en modellen voor algemene doeleinden van kracht. Volgend jaar augustus worden de overige delen van de verordening van kracht, met uitzondering van slechts één paragraaf die de reikwijdte van risicovolle systemen uitbreidt. Deze laatste paragraaf is van toepassing vanaf augustus 2027.

Wat het betekent voor uw organisatie

Dit alles roept de vraag op: “Wat betekent de AI-wet voor mijn organisatie?”. Kortom, ongeacht de grootte of aard van je organisatie, kun je met de volgende drie stappen je blootstelling beoordelen en naleving garanderen.

  1. Maak een overzicht: De eerste stap naar het beoordelen van de blootstelling aan compliance bestaat uit het inventariseren van alle use cases die structureel zijn geïntegreerd in de processen van je organisatie.
  2. Use cases classificeren: De tweede stap is het classificeren van elk van de geïdentificeerde use cases onder de AI Act taxonomie, rekening houdend met de rol van je organisatie in de waardeketen van het onderliggende systeem.
  3. Zorg voor AI-geletterdheid: De AI-wet vereist dat alle organisaties die AI gebruiken training en Waakzaamheid bieden aan hun personeel om ervoor te zorgen dat ze weloverwogen beslissingen kunnen nemen op basis van output en de risico’s en beperkingen begrijpen.

Conclusie

Om deze korte introductie tot de AI-wet af te ronden, kunnen we stellen dat AI een blijvertje is en dat de regulering ervan dat ook is. Organisaties die in dit nieuwe tijdperk succesvol zijn, zullen die organisaties zijn die vanaf het begin solide AI-governancepraktijken opbouwen. Door u vandaag aan te passen aan de AI Act, legt u de basis voor het succes van morgen.

➡️ Wil je verder gaan? Volg onze collega Kevin tijdens het webinar dat wordt georganiseerd met Yields op 20/01 om 11:00 CET. en u krijgt duidelijke stappen aangereikt om te beginnen met het opbouwen van AI-governance in uw organisatie.

ANDERE VERHALEN

De Cyber Resilience Act (CRA) van de Europese Unie is op 10 december 2024 in werking getreden en zal de manier waarop bedrijven cyberbeveiliging voor producten met digitale elementen benaderen fundamenteel veranderen. In tegenstelling tot NIS2, dat zich richt op organisatorische beveiligingsmaatregelen, richt de CRA zich op de producten zelf.
Dorian Pacquet deelt hoe FinTechs verder kunnen gaan dan compliance en echt cybervertrouwen kunnen opbouwen door proactief risicobeheer en veerkracht.
In een interview voor Dynam!sme, het digitale magazine van Union Wallonne des Entreprises (UWE), bespreekt David Vanderoost, CEO bij Approach Cyber, het Waalse cyberbeveiligingslandschap.

Neem contact met ons op voor meer informatie over onze diensten en oplossingen

Ons team helpt je op weg naar cybersereniteit

Stuur je ons liever een e-mail?