Aggiornamenti recenti Luglio 30th, 2025 3:48 PM
Gen 20, 2023 Dario Orlandi News, Opinioni, RSS, Scenario, Social engineering, Tecnologia 0
L’accesso a modelli di intelligenza artificiale capaci di generare testi verosimili in pochi secondi rappresenta un punto di svolta nella storia umana.
Ma questa tecnologia è anche una nuova arma che si aggiunge all’arsenale della criminalità informatica, come ha dimostrato la ricerca Creatively malicious prompt engineering, pubblicata da WithSecure (precedentemente nota come F-Secure Business).
La ricerca descrive una serie di esperimenti condotti utilizzando modelli di linguaggio GPT-3 per generare testo dannoso attraverso il prompt engineering.
Gli esperimenti hanno valutato come le modifiche negli input influiscano sull’output del testo sintetico e hanno riguardato phishing, molestie, truffe, appropriazione di uno stile scritto, creazione di opinioni divisive e notizie false.
L’obiettivo è identificare come la generazione del linguaggio AI possa essere utilizzata in modo improprio, per migliorare la sicurezza dei modelli linguistici futuri.
Andy Patel, il ricercatore di WithSecure Intelligence che ha guidato la ricerca, ha dichiarato: “Il fatto che chiunque abbia una connessione Internet possa ora accedere a potenti modelli linguistici di grandi dimensioni ha una conseguenza molto pratica: ora è ragionevole supporre che qualsiasi nuova comunicazione ricevuta possa essere stata scritta con l’aiuto di un sistema automatico”.
Andy Patel, ricercatore di WithSecure
Le risposte fornite dai modelli GPT-3 hanno portato i ricercatori a individuare alcune conclusioni riguardo all’uso di queste tecnologie. WithSecure prevede innanzi tutto un aumento nello sviluppo dell’ingegneria dei prompt e nella creazione di prompt dannosi, con una maggiore abilità degli avversari nell’utilizzare modelli linguistici di grandi dimensioni in modi imprevedibili.
Per contro, i gestori delle piattaforme di comunicazione avranno più difficoltà nell’identificare contenuti offensivi e i criminali informatici potranno rendere più efficaci le loro comunicazioni mirate in un attacco.
“Abbiamo iniziato questa ricerca prima che ChatGPT rendesse la tecnologia GPT-3 disponibile a tutti. Questa novità ha aumentato i nostri sforzi e l’urgenza dell’analisi. Perché, in una certa misura, ora siamo tutti Blade Runner, che cercano di capire se l’intelligenza con cui abbiamo a che fare è reale o artificiale”, ha concluso Patel.
Lug 24, 2025 0
Lug 21, 2025 0
Lug 18, 2025 0
Lug 16, 2025 0
Lug 30, 2025 0
Lug 29, 2025 0
Lug 29, 2025 0
Lug 28, 2025 0
Lug 29, 2025 0
Tra le minacce più recenti che stanno facendo tremare il...Lug 17, 2025 0
Gli attacchi DDoS, compresi quelli ipervolumetrici,...Lug 08, 2025 0
In una recente analisi, Group-IB ha approfondito il ruolo...Lug 03, 2025 0
Recentemente il team Satori Threat Intelligence di HUMAN ha...Giu 09, 2025 0
La cybersecurity sta acquisendo sempre più importanza tra...Gen 29, 2025 0
Con l’avvento dell’IA generativa...Ott 09, 2024 0
Negli ultimi anni sempre più aziende stanno sottoscrivendo...Ott 02, 2024 0
Grazie al machine learning, il Global Research and Analysis...Set 30, 2024 0
Il 2024 è l’anno delle nuove normative di sicurezza:...Mag 21, 2024 0
Una delle sfide principali delle aziende distribuite sul...Lug 30, 2025 0
Martedì Apple ha rilasciato una fix che risolve una...Lug 29, 2025 0
I gruppi di cyberspionaggio legati alla Cina stanno...Lug 28, 2025 0
La scorsa settimana Google ha annunciato OSS Rebuild,...Lug 28, 2025 0
Negli ultimi sette giorni, il panorama delle minacce...Lug 25, 2025 0
I ricercatori di Prodaft, compagnia di cybersecurity, hanno...