Allarme AI per le aziende: la sicurezza dei dati è a rischio

Secondo recenti analisi, quasi il 90% degli strumenti di intelligenza artificiale generativa utilizzati dai dipendenti sfugge completamente al controllo delle aziende. Questo rappresenta un pericolo significativo, poiché la mancanza di monitoraggio può compromettere la sicurezza delle informazioni aziendali.
L’adozione di strumenti di intelligenza artificiale generativa sta trasformando il modo in cui le aziende operano, ma porta con sé anche rischi significativi per la sicurezza e la protezione dei dati. Molti dipendenti, spesso in buona fede, inseriscono informazioni aziendali in queste piattaforme senza adottare misure di tutela adeguate. L’uso di account personali e l’assenza di controlli centralizzati espongono i dati a possibili violazioni e accessi non autorizzati. Per ridurre questi rischi, è essenziale adottare strategie di anonimizzazione e pseudonimizzazione, limitando l’esposizione di informazioni identificabili e garantendo che i dati utilizzati nei tool AI generativi siano protetti. Solo così è possibile sfruttare i vantaggi della tecnologia minimizzando i pericoli legati alla fuga o manipolazione di dati sensibili.
Infatti, circa un dipendente su cinque ha installato almeno un’estensione AI sul proprio browser senza alcuna supervisione aziendale. Il dato più preoccupante è che il 58% di queste estensioni richiede autorizzazioni elevate, consentendo di monitorare la navigazione web, leggere contenuti delle pagine visitate e accedere a cookie e dati sensibili. Ancora più allarmante è che il 5,6% delle estensioni risulta potenzialmente pericoloso, avendo la capacità di rubare informazioni riservate e compromettere la sicurezza aziendale.
Ma non finisce qui: il 18% degli utenti copia e incolla dati nei tool AI, e in metà dei casi si tratta di informazioni aziendali riservate. Questo comportamento aumenta il rischio di fughe di dati e possibili violazioni della normativa sulla protezione delle informazioni.
A mettere in luce queste criticità è l’“Enterprise GenAI Security Report 2025” di LayerX Security, società leader nella protezione delle aziende attraverso soluzioni avanzate di sicurezza per i browser. Il report, basato su dati reali raccolti da clienti aziendali, analizza le vulnerabilità della sicurezza legate all’uso dell’AI generativa e i relativi rischi di conformità normativa.
Un problema di sicurezza e gestione aziendale
Dall’analisi emerge che oltre il 70% degli accessi agli strumenti AI avviene tramite account personali dei dipendenti, aggirando così i sistemi di sicurezza implementati dalle aziende.
Le principali cause di questa criticità includono:
✅ Utilizzo di account privati: strumenti non monitorati espongono dati aziendali a rischi nascosti che sfuggono al controllo della società.
✅ Mancanza di consapevolezza: i dipendenti, spesso in buona fede, non sono adeguatamente formati sui pericoli connessi all’uso dell’AI generativa.
✅ Assenza di strumenti ufficiali: la mancanza di soluzioni approvate dalla direzione spinge i lavoratori a cercare alternative non sicure.
✅ Politiche aziendali inesistenti: l’assenza di linee guida interne crea un pericoloso “fai da te”, aumentando il rischio di perdita di dati.
L’importanza dell’anonimizzazione e/o pseudominizzazione per la protezione dei dati
Per ridurre i rischi legati all’uso dell’AI generativa è essenziale anonimizzare o pseudonimizzare i dati prima di inserirli nei tool di intelligenza artificiale. Questo approccio garantisce che nessuna informazione possa ricondurre direttamente a una persona fisica o a dati aziendali critici, proteggendo la privacy e la riservatezza delle informazioni.
Secondo il rapporto, per garantire una gestione sicura dell’intelligenza artificiale nelle imprese, è necessario adottare un approccio basato sul rischio, che preveda:
📌 Mappatura dell’uso dell’AI all’interno dell’azienda, per individuare punti critici e aree di rischio.
📌 Implementazione di strumenti per monitorare l’attività delle applicazioni AI e prevenire la perdita di dati.
📌 Limitazione degli account personali e obbligo di utilizzare soluzioni AI aziendali con misure di sicurezza integrate.
📌 Adozione del Single Sign-On (SSO) per garantire un’autenticazione centralizzata e ridurre il rischio di accessi non autorizzati.
Il Single Sign-On (SSO) permette agli utenti di autenticarsi una sola volta per accedere a più servizi aziendali, eliminando la necessità di usare account personali non sicuri.
Conclusioni: proteggere l’azienda con scelte consapevoli
L’intelligenza artificiale generativa è uno strumento potente, ma il suo utilizzo deve essere regolamentato per evitare che diventi un rischio per la sicurezza aziendale. Le organizzazioni devono adottare policy chiare, selezionare strumenti affidabili e sensibilizzare i dipendenti all’uso corretto della tecnologia.
Qualunque sia l’uso dell’AI, la regola d’oro rimane sempre la stessa: anonimizzare o pseudonimizzare i dati per proteggere le informazioni sensibili. Solo così sarà possibile sfruttare le potenzialità della tecnologia senza esporre l’azienda a gravi conseguenze.