Digital Sentinel #6
Febbraio 2026

La fuga di dati parte dalla scrivania e finisce nei prompt
Sicurezza zero, ChatGPT ovunque
Un nuovo paradosso in ufficio: la sicurezza resta a budget zero, ma i chatbot sono già ovunque. Immagina la scena: è lunedì mattina, il responsabile IT presenta l'ennesimo report sui rischi informatici e chiede investimenti urgenti. Dall'altra parte del tavolo il CFO scuote la testa: pochissimi soldi, niente nuovi tool né formazione. Quest'anno si tira avanti.
Intanto, poche scrivanie più in là, qualcuno apre ChatGPT e nel prompt finisce un intero file Excel con dati aziendali sensibili, giusto per farsi preparare un report all'ultimo secondo. Il paradosso è servito: zero investimenti in sicurezza, ma un uso disinvolto dell'AI generativa da parte dei dipendenti, fuori da ogni controllo.
Zero budget per la sicurezza e la produttività diventa un leak
Questo scenario non è un caso limite. È routine in molte aziende: strumenti di AI generativa usati su device aziendali, dentro flussi di lavoro reali, con file e materiali che di “generico” hanno poco.
Succede spesso così: un dipendente ha poco tempo e troppe righe da analizzare. Prende l'Excel con i dati dei clienti, lo apre, seleziona tutto e fa copia-incolla nel prompt di ChatGPT. Chiede un riassunto, un'analisi, magari due slide con i KPI principali. Nessuna protezione, nessun filtro. Solo urgenza.
E quando l'azienda prova a mettere paletti, la scorciatoia è immediata: app dal cellulare, account Gmail o Outlook personale, magari usando il Wi-Fi ospiti. L'AI torna accessibile, ma stavolta completamente fuori controllo. Nessun log, nessuna tracciabilità.
Poi ci sono i “power user”: sviluppatori che, davanti a un bug ostico, chiedono a Copilot di guardare quel pezzo di codice proprietario; oppure commerciali che incollano un contratto riservato per farlo tradurre o “ripulire” da Bard, prima di inviarlo al cliente. Il file entra, la risposta esce. Ma del dato aziendale non si sa più nulla.
I numeri del problema: 1 milione di prompt, 43.700 segreti aziendali
Un report di Harmonic Security mette un numero su ciò che in ufficio molti considerano una scorciatoia innocua. Nel solo secondo trimestre dell'anno, oltre il 4% dei prompt inviati a strumenti di AI generativa e più del 20% dei file caricati contenevano informazioni aziendali sensibili. Non stiamo parlando di eccezioni, ma di abitudini.
Su un milione di prompt, 43.700 includevano dati riservati. E su 20.000 file caricati, 4.400 contenevano informazioni sensibili. Dentro quei prompt non c'erano solo “appunti” o bozze: c'erano piani di M&A, modelli finanziari, comunicazioni con investitori. Materiale da sala riunioni, non da chat.
La parte più insidiosa è che spesso non c'è malizia. C'è fretta. C'è il desiderio di far funzionare le cose. E così, senza rendersene conto, molte persone stanno incorporando pezzi di segreto aziendale nei loro dialoghi con l'AI, un copia-incolla alla volta.
Viene spontaneo dare la colpa a ChatGPT o agli strumenti analoghi di AI: dopotutto, se non esistessero, i dati resterebbero in azienda. Ma sarebbe come incolpare il martello quando ci si colpisce un dito. Il vero problema non è l'AI in sé, bensì l'assenza di policy, controlli, formazione, educazione sull'uso di questi nuovi strumenti. Molte aziende non hanno linee guida chiare né sistemi di monitoraggio: i dipendenti usano l'AI alla cieca, mescolando lavoro e strumenti personali, ignari dei rischi.
Account personali, dati aziendali: l'AI fuori dai radar IT
I numeri confermano questa zona grigia di irresponsabilità diffusa. Una ricerca di LayerX evidenzia che quasi metà dei dipendenti (45%) utilizza già strumenti di AI generativa in azienda. E non si tratta solo di fare qualche domanda generica ai chatbot: il 77% dei lavoratori copia-incolla attivamente dati aziendali nei prompt dell'AI.
Ciò avviene spesso al di fuori di ogni visibilità da parte dell'IT; nella stragrande maggioranza dei casi il copia-incolla passa infatti da account personali non gestiti dall'azienda (oltre l'80% dei casi). In altre parole, il dipendente medio sta usando l'AI sul proprio account privato, magari dallo stesso browser dove ha aperto Gmail, bypassando completamente i controlli aziendali.
I dipendenti cercano soluzioni veloci per lavorare meglio (o di meno), e se l'azienda non fornisce indicazioni né strumenti sicuri, loro faranno da soli, spesso in modo ingenuo ma pericoloso. Ignorare o vietare tout court i chatbot di intelligenza artificiale senza offrire alternative e senza educare il personale serve a poco: significa solo voltarsi dall'altra parte mentre i dati escono lo stesso, di nascosto.
Shadow AI, la voragine invisibile che entro il 2030 colpirà 4 aziende su 10
Questi comportamenti banali - il collega che incolla un listato di codice su ChatGPT per debuggare, o la collaboratrice che fa scrivere all'AI la lettera al cliente usando dati reali - costituiscono una minaccia silenziosa e sottovalutata. Gli anglosassoni la chiamano shadow AI: tutta l'intelligenza artificiale nell'ombra utilizzata dai dipendenti senza approvazione né controllo da parte dell'azienda. Finché tutto fila liscio, nessuno se ne accorge; ma nel momento in cui un pezzo di informazione riservata finisce su server esterni, l'azienda ha potenzialmente subito una violazione (magari non immediata, ma ha perso il controllo di quel dato).
Le previsioni non sono incoraggianti: Gartner stima che entro il 2030 oltre il 40% delle aziende subirà incidenti di sicurezza o di compliance proprio a causa di questo uso non autorizzato dell'AI. Insomma, lo shadow AI oggi è quello che qualche anno fa era lo shadow IT: una voragine nascosta che rischia di inghiottire dati e segreti mentre il reparto sicurezza guarda altrove.
L'adozione dell'AI corre troppo veloce perché i tradizionali meccanismi di controllo possano arginarla. Se perfino chi è incaricato di proteggere i dati cede alla comodità dell'AI generativa, è chiaro che servono nuove strategie. Gartner suggerisce ad esempio di definire subito policy aziendali chiare sull'uso dell'AI, effettuare audit regolari per scovare attività di shadow AI e inserire il rischio GenAI nelle valutazioni di sicurezza dei SaaS adottati. Non si può fermare il fenomeno con un firewall: serve governance, formazione; bisogna capire che il genio (anzi, il Generative AI) è uscito dalla lampada.
Il vero nemico è l'inerzia e l'indifferenza con cui molte imprese stanno reagendo. Finché non si prenderà atto che ogni foglio Excel incollato in un prompt è un potenziale leak, e finché non si daranno ai dipendenti regole chiare e strumenti sicuri, i dati aziendali continueranno a scivolare nell'ombra. E a quel punto, dare la colpa a ChatGPT sarà solo l'ennesima scusa per non guardare in faccia la realtà.
Iscriviti alla newsletter
Rimani aggiornato sulle nuove frontiere della sicurezza informatica.