Door Jelle Wieringa, Security Awareness Advocate, Knowbe4. - NLMagazine Maatschappij, Cyber, criminaliteit - Techbedrijven hebben de intentie uitgesproken om een watermerk voor kunstmatige intelligentie (AI) te ontwikkelen.
Dankzij dit watermerk kunnen mensen zien dat een video door AI is geproduceerd. De intentie is goed, maar zolang er geen eenvoudig toepasbare en realtime technologie bestaat om deepfakes te detecteren en mensen te waarschuwen, moeten werkgevers hun medewerkers onderwijzen in de gevaren van deepfakes. Een gezond gevoel van wantrouwen is op dit moment de beste bescherming.
Natuurlijk is de intentie van techbedrijven om zo’n watermerk te ontwikkelen goed. Het probleem zit hem vooral in hoe ze kunnen afdwingen dat ook een groep die kwaadwillend is, gebruikmaakt van dit soort middelen. Cybercriminelen die generatieve AI willen gebruiken om cyberaanvallen zoals phishing effectiever te maken houden zich zelden aan wet- en regelgeving. Technologie die hun eigen operatie ondermijnt zullen ze ook liever links laten liggen.
Tegelijkertijd wordt technologie om deepfakes te produceren steeds geavanceerder en toegankelijker. Dat geldt voor video, maar zeker ook voor audio. Daarom verwacht ik dat we dit jaar een aanzienlijke groei gaan zien in Business Email Compromise (BEC)-aanvallen waarbij een cybercrimineel door AI gemaakte spraakberichten gebruikt. Bij dit soort aanvallen ontvangt een werknemer zogenaamd een voice-berichtje van zijn of haar directeur om zo snel als mogelijk vertrouwelijke informatie te sturen.
Technologie om deepfakes in real-time te detecteren en stoppen is vandaag de dag nog niet volwassen. Daarom moeten werkgevers hun medewerkers blijven onderwijzen in de gevaren van BEC en deepfakes. Ze zorgen hiermee voor een gezond gevoel van wantrouwen, waardoor de kans kleiner wordt dat cybercriminelen die een BEC-aanval uitvoeren slagen.