Aggiornamenti recenti Giugno 1st, 2023 9:30 AM
Mar 31, 2023 Marina Londei Approfondimenti, Gestione dati, Opinioni, Privacy, RSS, Tecnologia 0
Dopo il suo ingresso nel mondo del lavoro, non possiamo più considerare ChatGPT come un gioco. In molte aziende i dipendenti hanno cominciato a usarlo quotidianamente, arrivando ad aumentare la produttività fino a 10 volte. Molte compagnie, però, temono i problemi di privacy e sicurezza, e hanno deciso di vietarne l’utilizzo.
Un preoccupazione assolutamente lecita visto che, secondo un recente report di Cyberhaven, quasi il 7% dei dipendenti di tutto il mondo ha condiviso dati confidenziali dell’azienda col chatbot e continua a farlo. La percentuale può sembrare bassa, ma non deve ingannare: il numero continuerà a salire a passo spedito, considerando che a inizio marzo era al 4.2% e a fine febbraio al 3.1%.
Il problema, è chiaro, sta nel fatto che questi dati vengono usati da ChatGPT per come set di training per migliorare le proprie capacità. Funzioni di codice proprietario, cartelle mediche dei pazienti o documenti aziendali strategici vengono condivisi ogni giorno con lo strumento che utilizza le stesse informazioni per rispondere alle domande di altri utenti.
Pixabay
I cybercriminali possono trarre un enorme vantaggio da questa situazione: gli attacchi di training data extraction consistono proprio nell’effettuare richieste specifiche al chatbot per ottenere dati sensibili e proprietà intellettuali.
In media, secondo l’indagine di Cyberhaven, i dati sensibili che i dipendenti condividono col chatbot sono l’11% del totale. Se si considera che l’uso dello strumento sta crescendo in maniera esponenziale, stiamo parlando di un volume enorme di informazione.
I tool di sicurezza tradizionali non riescono a monitorare quali e quanti dati vengono condivisi col chatbot. I dipendenti non caricano file, ma semplicemente copia-incollano il contenuto di cui hanno bisogno; i prodotti di sicurezza, invece, sono pensati per analizzare i file contrassegnati come confidenziali, ma una volta che il contenuto viene estrapolato non riescono più a tenerne traccia.
Inoltre, poiché i dati confidenziali non contengono pattern riconoscibili quali numeri di carte di credito o simili, gli strumenti di sicurezza non riuscirebbero a distinguere la natura delle informazioni condivise.
Questa difficoltà nel monitorare i dipendenti e la paura di rimanere vittime di attacchi di data exfiltration ha portato molte realtà a proibire l’uso di ChatGPT a lavoro. JP Morgan e Verizon sono due esempi di aziende che hanno deciso di bloccare l’accesso al tool, per evitare di mettere a rischio i dati confidenziali.
Pixabay
Bisogna vietare l’uso del chatbot? Visti i benefici che porta, il divieto assoluto appare una scelta un po’ eccessiva. Quel che è certo però è che i dipendenti, così come i manager, vanno prima istruiti a dovere sull’utilizzo consapevole dell’IA generativa: solo conoscendo i rischi legati a un uso improprio dei tool si possono limitare i danni, ottenendo al contempo i vantaggi di cui si ha bisogno.
I progressi dell’intelligenza artificiale ci hanno travolti e i tool sono diventati d’uso comune senza che ce ne accorgessimo. È il caso, quindi, di fare un passo indietro e investire su una formazione adeguata per trarre il massimo beneficio dalla collaborazione uomo-IA.
Mag 23, 2023 0
Mag 11, 2023 0
Mag 10, 2023 0
Mag 05, 2023 0
Giu 01, 2023 0
Mag 31, 2023 0
Mag 31, 2023 0
Mag 30, 2023 0
Giu 01, 2023 0
Kaspersky ha pubblicato il suo Incident Response report,...Mag 31, 2023 0
A margine del Security Day, il principale evento dedicato...Mag 31, 2023 0
Lo scorso 3 maggio Discord ha annunciato...Mag 30, 2023 0
Veeam ha pubblicato i risultato del 2023 Ransomware Trends...Mag 30, 2023 0
Mandiant ha individuato un nuovo malware creato per colpire...Mag 04, 2018 0
E se vi dicessimo che la saga di Star Wars ...Nov 14, 2016 2
Abbiamo rubato al blog di Kaspersky un vecchio pezzo di...Nov 08, 2016 2
Il numero uno degli scacchi mondiali Magnus Carlsen ha...Ott 28, 2016 0
Il pirata informatico che ha creato il ransomware cerca...Ott 11, 2016 0
Dopo la raffica di figuracce, l’azienda sospende per...Mag 31, 2023 0
Lo scorso 3 maggio Discord ha annunciato...Mag 30, 2023 0
Mandiant ha individuato un nuovo malware creato per colpire...Mag 29, 2023 0
La carenza di esperti di sicurezza ha portato le imprese...Mag 26, 2023 0
Il ricercatore di sicurezza vdohney ha individuato e...Mag 25, 2023 0
La patch di Microsoft che avrebbe dovuto risolvere la...