Bron

Leestijd 3 min

Nu bedrijven steeds vaker kunstmatige intelligentie (AI) aan hun productportfolio toevoegen, waarschuwen cyberbeveiligingsdeskundigen dat de machine learning-componenten kwetsbaar zijn voor nieuwe soorten aanvallen en beschermd moeten worden. Startup HiddenLayer, die op 19 juli van start is gegaan, wil bedrijven helpen hun gevoelige machine-learning modellen en de gegevens die worden gebruikt om die modellen te trainen, beter te beschermen. Het bedrijf heeft zijn eerste producten uitgebracht die gericht zijn op het ML-detectie- en -responsegment, met als doel modellen te verharden tegen aanvallen en de gegevens te beschermen die worden gebruikt om die modellen te trainen. De risico's zijn niet theoretisch: de oprichters van het bedrijf werkten bij Cylance toen onderzoekers manieren vonden om de AI-engine van dat bedrijf voor het detecteren van malware te omzeilen, aldus Christopher Sestito, CEO van HiddenLayer. "Zij vielen het model aan via het product zelf en hadden genoeg interactie met het model om te bepalen waar het model het zwakst was," zegt hij. Sestito verwacht dat het aantal aanvallen op AI/ML-systemen zal toenemen naarmate meer bedrijven de functies in hun producten inbouwen. "AI en ML zijn de snelst groeiende technologieën die we ooit hebben gezien, dus we verwachten dat ze ook de snelst groeiende aanvalsvectoren zullen zijn die we ooit hebben gezien," zegt hij. Machine learning is een must-have geworden voor de volgende generatie producten van veel bedrijven, maar bedrijven voegen vaak AI-gebaseerde functies toe zonder rekening te houden met de gevolgen voor de beveiliging. Tot de bedreigingen behoren het omzeilen van modellen, zoals het onderzoek tegen Cylance, en functionele extractie, waarbij aanvallers een model kunnen bevragen en op basis van de output een functioneel equivalent systeem kunnen construeren. Twee jaar geleden hebben Microsoft, MITRE en andere bedrijven de Adversarial Machine Learning Threat Matrix opgesteld om de potentiële bedreigingen tegen op AI gebaseerde systemen in kaart te brengen.

24 dagen geleden - darkreading.com

Korte versie

Kunstmatige intelligentie (AI) zou bedreigd kunnen worden door een groeiend aantal aanvallen, aldus onderzoekers van Cylance.

Uitgebreide versie

Nu bedrijven steeds vaker kunstmatige intelligentie (AI) aan hun productportfolio toevoegen, waarschuwen cyberbeveiligingsdeskundigen dat de machine learning-componenten kwetsbaar zijn voor nieuwe soorten aanvallen en beschermd moeten worden. Startup HiddenLayer, die op 19 juli van start is gegaan, wil bedrijven helpen hun gevoelige machine-learning modellen en de gegevens die worden gebruikt om die modellen te trainen, beter te beschermen. Het bedrijf heeft zijn eerste producten uitgebracht die gericht zijn op het ML-detectie- en -responsegment, met als doel modellen te verharden tegen aanvallen en de gegevens te beschermen die worden gebruikt om die modellen te trainen.

Vergelijkbare publicaties