Hoewel artificial intelligence (AI) nog steeds nieuw en spannend is, verschilt het niet van andere technologieën. Als u besluit om het binnen uw organisatie te implementeren, zorg er dan voor dat u zich bewust bent van de mogelijke risico's van blootstelling.
We zijn ons bewust van de voordelen van AI, maar nu 35 procent van de bedrijven het omarmt, moet de focus verschuiven naar hoe je je kunt voorbereiden op wanneer er iets misgaat. Dit omvat inzicht in hoe AI kan worden misbruikt om organisaties te misleiden, manipuleren of schaden, en tools om te helpen bij de verdediging tegen en beperking van risico's.
AI wordt onoprecht gebruikt
Een groot risico van AI is dat mensen zich kunnen voordoen als iets wat ze niet zijn. AI kan er bijvoorbeeld voor zorgen dat cv's er fantastisch uitzien en dat het proces om ze op te stellen veel sneller verloopt. In een steeds competitievere banenmarkt gebruiken afgestudeerden bijvoorbeeld OpenAI of ChatGPT om coverletters te schrijven naast hun cv. Hoewel dit sommigen vooruithelpt bij wervingsonderzoeken, merken bedrijven dat wanneer een kandidaat wordt opgeroepen voor een sollicitatiegesprek, er verschillen zijn tussen de kwalificaties op papier en de persoon aan de andere kant van het bureau.
Ook financiële instellingen gebruiken vaak online formulieren en AI om te bepalen of ze iemand een lening of krediet verstrekken. Het automatiseren van dit soort processen betekent dat bedrijven mensen niet altijd persoonlijk ontmoeten, waardoor ze een ideaal doelwit vormen voor degenen die het systeem willen uitbuiten.
In een variant op traditionele whaling-aanvallen (een soort spear-phishing-aanval gericht op hogere leidinggevenden) zijn er recente meldingen van fraudeurs die AI gebruiken om deepfake-verzoeken in te dienen namens de Chief Financial Officer (CFO).
Deze voorbeelden benadrukken de noodzaak voor bedrijven om voorzichtig te zijn, robuuste screeningprocessen te implementeren en training voor belanghebbenden te verzorgen.
Onethische zakelijke praktijken
AI kan bedrijfsvoordelen maximaliseren door verbeterde online dynamische prijsstrategieën. Vierennegentig procent van de shoppers vergelijkt de prijzen van producten tijdens het online winkelen en algoritmes volgen dat gebruikersgedrag om gepersonaliseerde prijzen aan te bieden op basis van bestedingsgewoonten. Bedrijven kunnen echter in de verleiding komen om misleidende prijsstrategieën te hanteren, waarbij ze de algoritmes gebruiken om de betalingsbereidheid van consumenten te peilen in plaats van de juiste prijs aan te bieden.
Deze manipulatie gaat verder dan prijsaanpassingen. Bedrijven zouden geavanceerde algoritmen kunnen gebruiken om consumentengedrag te voorspellen en te beïnvloeden, waarbij ze mogelijk ethische grenzen overschrijden door in te spelen op individuele voorkeuren of kwetsbaarheden.
Risico's van insiders en derden
Bedreigingen van binnenuit voegen nog een laag complexiteit toe, waarbij ontevreden werknemers met toegang tot AI-algoritmen activiteiten kunnen saboteren of gevoelige data kunnen compromitteren. Door opzettelijk vertrouwelijke data in generatieve AI-systemen te stoppen, kunnen werknemers bedrijfsgeheimen blootstellen aan mogelijke hacking, waardoor bedrijven en klanten met aanzienlijke veiligheidsrisico's worden bedreigd. Begin 2023 verbood een wereldwijd elektronicabedrijf werknemers om AI te gebruiken nadat was vastgesteld dat gevoelige interne informatie was gelekt door een werknemer die AI voor werkgerelateerde doeleinden gebruikte.
Veel bedrijven zijn afhankelijk van externe leveranciers voor essentiële data en services. Dit partnerschap brengt echter risico's met zich mee, omdat de derde partij andere vooroordelen kan hebben en een risicotolerantie die niet overeenkomt met de verwachtingen of normen van het bedrijf. Deze mismatch kan leiden tot kwetsbaarheden, zoals een overhaaste ontwikkeling zonder beveiligingsmaatregelen en een verhoogde gevoeligheid voor manipulatie.
Risicoverdediging
Beveiliging is gebaseerd op drie principes: vertrouwelijkheid, integriteit en beschikbaarheid, en alle controles die worden uitgevoerd moeten deze principes beschermen. Naarmate technieken geavanceerder worden in de mogelijkheid om deze principes aan te vallen, moet de verdediging geavanceerder worden. Bedrijven kunnen risico's beperken door:
- Uitgebreide defensiestrategie: Het is belangrijk voor bedrijven om AI-systemen door te lichten en te bewaken, de betrouwbaarheid van de betrokkenheid van derden te beoordelen en bescherming te bieden tegen een breed scala aan potentiële bedreigingen, waaronder die van onoprechte gebruikers en corrupte algoritmen.
- Verantwoord bestuur en openbaarmaking: Bedreigingen voor cybersecurity en morele gevaren vereisen een evenwichtig bestuur. Het ontbreken van proactieve maatregelen kan niet alleen leiden tot reputatieschade, maar ook tot een erosie van het vertrouwen in hele bedrijfstakken.
- Verantwoorde AI-praktijken: Van ontwikkelaars tot bedrijven, verantwoordelijke AI-praktijken zoals een op de mens gerichte ontwerpbenadering, privacy en beveiliging van data, transparantie en verantwoording moeten in elke fase van de waardeketen worden ingebakken.
- Naleving van regelgeving: Blijf op de hoogte van veranderende voorschriften en normen met betrekking tot AI en cybersecurity zoals ISO 27001 of het cybersecuritykader van National Institute of Standards and Technology (NIST) Zorg ervoor dat relevante regelgeving wordt nageleefd om juridische en regelgevingsrisico's te vermijden.
De transformerende kracht van AI is onmiskenbaar. De verantwoorde werking ervan vereist echter een collectieve inspanning en een evenwicht tussen technologische vooruitgang en ethische verantwoordelijkheid. Alleen door een proactieve en robuuste verdediging en een industriebrede toewijding aan ethische AI-praktijken kunnen bedrijven en samenlevingen het volledige potentieel van AI benutten en tegelijkertijd de inherente risico's beperken.