Sebbene non abbia ancora perso l'aura di novità, l'intelligenza artificiale è una tecnologia come qualsiasi altra. Se decidi di implementarla nella tua organizzazione, assicurati di essere consapevole dei potenziali rischi a cui ti espone.
Malgrado la consapevolezza sui vantaggi dell'intelligenza artificiale, con statistiche e trend importanti circa la sua adozione da parte delle aziende, l'attenzione deve spostarsi su come prepararsi quando qualcosa va storto. Dobbiamo comprendere come l'intelligenza artificiale possa essere sfruttata per ingannare, manipolare o danneggiare le organizzazioni, e quali sono gli strumenti per difendersi dai rischi e mitigarli.
L’AI utilizzata in modo disonesto
Uno dei maggiori rischi associati all’intelligenza artificiale è dare alle persone la possibilità di fingere di essere qualcosa che non sono. Ad esempio l'intelligenza artificiale può rendere fantastico un CV e accelerare notevolmente il processo per crearlo. In un mercato del lavoro sempre più competitivo, i laureati utilizzano strumenti come OpenAI o ChatGPT per scrivere la lettera di accompagnamento al CV. Sebbene questo aiuti a superare le selezioni in alcuni casi, quando il candidato viene chiamato per il colloquio, le aziende scoprono le discrepanze tra le qualifiche sulla carta e quelle della persona seduta dall'altra parte della scrivania.
Allo stesso modo, gli istituti finanziari utilizzano spesso moduli online e l'intelligenza artificiale per decidere se concedere un prestito o un credito a qualcuno. L'automazione di processi come questo fa sì che le aziende non svolgano sempre un incontro di persona, diventando un bersaglio primario per chi vuole sfruttare il sistema.
Come evoluzione rispetto ai tradizionali attacchi whaling (un tipo di attacco di spear-phishing che prende di mira i dirigenti senior), ci sono state recenti segnalazioni di truffatori che hanno utilizzato l'intelligenza artificiale per richieste deepfake per conto del Chief Financial Officer.
Questi esempi evidenziano la necessità per le aziende di essere prudenti, di implementare solidi processi di screening e di fornire formazione agli stakeholder.
Pratiche commerciali non etiche
L'intelligenza artificiale può ad esempio consentire di migliorare le strategie dinamiche di pricing online. La maggioranza degli acquirenti confronta i prezzi dei prodotti durante lo shopping online e gli algoritmi monitorano il loro comportamento per offrire prezzi personalizzati in base alle abitudini di spesa. Questo potrebbe tuttavia spingere le aziende ad adottare strategie di prezzo ingannevoli, sfruttando gli algoritmi per valutare la disponibilità a spendere dei consumatori invece di offrire il prezzo appropriato.
Questa manipolazione non si limita alla modifica dei prezzi; le aziende potrebbero impiegare algoritmi sofisticati per prevedere e influenzare il comportamento dei consumatori, potenzialmente oltrepassando i confini etici e sfruttando le preferenze o le vulnerabilità individuali.
Rischi interni e di terze parti
Le minacce interne aggiungono un ulteriore livello di complessità: i dipendenti scontenti che hanno accesso agli algoritmi di AI potrebbero sabotare le operazioni o compromettere dati sensibili. Inserendo intenzionalmente dati riservati nei sistemi di AI generativa, potrebbero esporre i segreti aziendali a potenziali attacchi informatici, assoggettando aziende e clienti a rischi significativi per la sicurezza. All'inizio del 2023, un'azienda globale di elettronica ha vietato ai dipendenti di utilizzare l'AI dopo aver scoperto che informazioni interne sensibili erano state divulgate da un dipendente che utilizzava l'intelligenza artificiale per scopi lavorativi.
Molte aziende dipendono da fornitori terzi per dati e servizi essenziali. Questo tipo di collaborazioni, tuttavia, comporta dei rischi, poiché il partner potrebbe avere bias diversi e una tolleranza al rischio non allineata alle aspettative o agli standard dell'azienda. Questo disallineamento può portare a vulnerabilità, come uno sviluppo affrettato e privo di misure di sicurezza e una maggiore suscettibilità alla manipolazione.
Difendersi dai rischi
La sicurezza si basa su tre principi: riservatezza, integrità e disponibilità, e tutti i controlli messi in atto servono a proteggerli. Man mano che le tecniche si evolvono nella capacità di attacco, le difese devono diventare più avanzate. Le aziende possono mitigare i rischi attraverso:
- Una strategia di difesa globale: per le aziende è importante esaminare e monitorare i sistemi di intelligenza artificiale, valutare l'affidabilità del coinvolgimento di terze parti e fornire supporto contro molte minacce potenziali, come quelle poste da utenti disonesti e algoritmi corrotti.
- Governance e divulgazione responsabili: le minacce alla sicurezza informatica e i pericoli morali richiedono una governance equilibrata. L'assenza di misure proattive potrebbe portare non solo a danni alla reputazione ma anche a un'erosione della fiducia in interi settori.
- Pratiche di intelligenza artificiale responsabili: dagli sviluppatori alle aziende, le pratiche di intelligenza artificiale responsabili come un approccio di progettazione incentrato sull'uomo, la riservatezza e la sicurezza dei dati, la trasparenza e la responsabilità, devono essere radicate in ogni fase della catena del valore.
- Conformità regolamentare: è necessario rimanere al passo con le normative e gli standard in evoluzione relativi alla AI e alla sicurezza informatica, come ISO 27001 o ISO 42001 o ancora il framework di sicurezza informatica del National Institute of Standards and Technology (NIST). E garantire il rispetto delle normative vigenti per evitare rischi legali e normativi.
Se il potere trasformativo dell'intelligenza artificiale è innegabile, il suo funzionamento responsabile richiede uno sforzo collettivo e un equilibrio tra progresso tecnologico e responsabilità etica. Solo attraverso una difesa proattiva e solida e un impegno dell'intero settore verso pratiche etiche di intelligenza artificiale, le aziende e le società potranno sfruttare appieno il potenziale, proteggendosi al contempo dai rischi intrinseci.