Waarom beveiliging niet over het hoofd mag worden gezien bij het implementeren van oplossingen voor kunstmatige intelligentie
Veel onderzoekers hebben bewezen – en bewijzen dat nog steeds – dat AI-toepassingen eenvoudig voor de gek gehouden en gehackt kunnen worden, waardoor ze verkeerde beslissingen nemen of falen op manieren waar aanvallers baat bij hebben. Er zijn verschillende aanvalsmethoden ontwikkeld die de vertrouwelijkheid, integriteit en beschikbaarheid van systemen met AI-oplossingen in gevaar brengen.
Deze AI-specifieke aanvallen verschillen fundamenteel van traditionele cyberaanvallen. In tegenstelling tot traditionele systemen zijn de algoritmen achter AI inherent kwetsbaar en kunnen ze niet eenvoudig worden gepatcht of vervangen. Terwijl bugs in traditionele code vaak kunnen worden opgelost met updates, maakt de complexiteit van AI-systemen het veel moeilijker om bugs te verhelpen.
Terwijl veel industrieën complianceprogramma’s hebben om zich te beschermen tegen standaard cyberbeveiligingsbedreigingen, zijn er bovendien nog steeds geen duidelijke, gestandaardiseerde richtlijnen voor het implementeren van veilige AI-oplossingen die bescherming bieden tegen AI-specifieke kwetsbaarheden.
Waarom deze publicatie over AI-toepassingen?
Geïnspireerd door deze zorgen, verkent dit artikel enkele van de belangrijkste aanvalsvectoren die gericht zijn op AI-toepassingen. We delen ook best practices die bedrijven kunnen toepassen om hun AI-systemen te beschermen tegen kwaadwillende actoren.
Neem contact met ons op voor meer informatie
Over de auteur
Samraa Alzubi is Cyber Security Consultant bij Approach. Ze heeft een Master in Cyber Security van de ULB University. Haar recente scriptie richtte zich op aanvallen op machine learning, waarbij ze een nieuwe black-box adversarial reprogramming aanval voorstelde gericht op image classifiers.