Aggiornamenti recenti Dicembre 5th, 2025 4:48 PM
Mar 31, 2023 Marina Londei Approfondimenti, Gestione dati, Opinioni, Privacy, RSS, Tecnologia 0
Dopo il suo ingresso nel mondo del lavoro, non possiamo più considerare ChatGPT come un gioco. In molte aziende i dipendenti hanno cominciato a usarlo quotidianamente, arrivando ad aumentare la produttività fino a 10 volte. Molte compagnie, però, temono i problemi di privacy e sicurezza, e hanno deciso di vietarne l’utilizzo.
Un preoccupazione assolutamente lecita visto che, secondo un recente report di Cyberhaven, quasi il 7% dei dipendenti di tutto il mondo ha condiviso dati confidenziali dell’azienda col chatbot e continua a farlo. La percentuale può sembrare bassa, ma non deve ingannare: il numero continuerà a salire a passo spedito, considerando che a inizio marzo era al 4.2% e a fine febbraio al 3.1%.
Il problema, è chiaro, sta nel fatto che questi dati vengono usati da ChatGPT per come set di training per migliorare le proprie capacità. Funzioni di codice proprietario, cartelle mediche dei pazienti o documenti aziendali strategici vengono condivisi ogni giorno con lo strumento che utilizza le stesse informazioni per rispondere alle domande di altri utenti.

Pixabay
I cybercriminali possono trarre un enorme vantaggio da questa situazione: gli attacchi di training data extraction consistono proprio nell’effettuare richieste specifiche al chatbot per ottenere dati sensibili e proprietà intellettuali.
In media, secondo l’indagine di Cyberhaven, i dati sensibili che i dipendenti condividono col chatbot sono l’11% del totale. Se si considera che l’uso dello strumento sta crescendo in maniera esponenziale, stiamo parlando di un volume enorme di informazione.
I tool di sicurezza tradizionali non riescono a monitorare quali e quanti dati vengono condivisi col chatbot. I dipendenti non caricano file, ma semplicemente copia-incollano il contenuto di cui hanno bisogno; i prodotti di sicurezza, invece, sono pensati per analizzare i file contrassegnati come confidenziali, ma una volta che il contenuto viene estrapolato non riescono più a tenerne traccia.
Inoltre, poiché i dati confidenziali non contengono pattern riconoscibili quali numeri di carte di credito o simili, gli strumenti di sicurezza non riuscirebbero a distinguere la natura delle informazioni condivise.
Questa difficoltà nel monitorare i dipendenti e la paura di rimanere vittime di attacchi di data exfiltration ha portato molte realtà a proibire l’uso di ChatGPT a lavoro. JP Morgan e Verizon sono due esempi di aziende che hanno deciso di bloccare l’accesso al tool, per evitare di mettere a rischio i dati confidenziali.

Pixabay
Bisogna vietare l’uso del chatbot? Visti i benefici che porta, il divieto assoluto appare una scelta un po’ eccessiva. Quel che è certo però è che i dipendenti, così come i manager, vanno prima istruiti a dovere sull’utilizzo consapevole dell’IA generativa: solo conoscendo i rischi legati a un uso improprio dei tool si possono limitare i danni, ottenendo al contempo i vantaggi di cui si ha bisogno.
I progressi dell’intelligenza artificiale ci hanno travolti e i tool sono diventati d’uso comune senza che ce ne accorgessimo. È il caso, quindi, di fare un passo indietro e investire su una formazione adeguata per trarre il massimo beneficio dalla collaborazione uomo-IA.
Nov 27, 2025 0
Nov 13, 2025 0
Nov 10, 2025 0
Nov 05, 2025 0
Dic 05, 2025 0
Dic 04, 2025 0
Dic 03, 2025 0
Dic 02, 2025 0
Dic 05, 2025 0
Lakera, società di Check Point, ha pubblicato una ricerca...
Nov 27, 2025 0
Dopo l’esplosione di ChatGPT e degli LLM, nel mondo...
Nov 26, 2025 0
I ricercatori di watchTowr Labs hanno individuato migliaia...
Nov 24, 2025 0
Analizzando DeepSeek R1, un potente LLM dell’omonima...
Nov 21, 2025 0
Lo scorso marzo Skybox Security, società israeliana di...
Gen 29, 2025 0
Con l’avvento dell’IA generativa...
Ott 09, 2024 0
Negli ultimi anni sempre più aziende stanno sottoscrivendo...
Ott 02, 2024 0
Grazie al machine learning, il Global Research and Analysis...
Set 30, 2024 0
Il 2024 è l’anno delle nuove normative di sicurezza:...
Mag 21, 2024 0
Una delle sfide principali delle aziende distribuite sul...
Dic 04, 2025 0
Dark Telegram, il regno dei canali clandestini, non sembra...
Dic 03, 2025 0
I ricercatori di JFrog Security Research hanno...
Dic 02, 2025 0
Una campagna durata sette anni che ha infettato 4.3...
Dic 01, 2025 0
Coupang, colosso del retail sud-coreano, ha confermato di...
Dic 01, 2025 0
Nel periodo compreso tra il 22 e il 28 novembre,...
