Aggiornamenti recenti Marzo 18th, 2026 4:00 PM
Ago 24, 2023 Marina Londei Attacchi, In evidenza, Minacce, News, Phishing, RSS, Social engineering 0
Alcuni ricercatori dell’Indiana University Bloomington hanno individuato una botnet attiva dallo scorso maggio su X (ex Twitter) basata su ChatGPT. Chiamata Fox8, la botnet era composta da 1140 account, la maggior parte dei quali usava il chatbot per generare post e rispondere a tweet di altri account.
Come spiegano i ricercatori nel loro paper, i post e le risposte cercavano di convincere gli utenti a cliccare su link per siti di cripto valute controllati dagli attaccanti. I bot rubavano selfie sul web per creare account che sembrassero credibili, ed erano riusciti a creare una rete piuttosto densa di follower seguendosi reciprocamente.
A incastrare la botnet sono stati alcuni tweet pubblicati per sbaglio dagli account che rivelavano la loro vera natura. I post individuati dai ricercatori sono stati il punto di partenza per identificare tutti i profili falsi e smantellare la rete.

Credits: KaviDesigns345- Depositphotos
Questi post, risalenti probabilmente ai primi test della botnet su Twitter, erano il risultato di istruzioni che violavano i le linee guida di OpenAI o non contemplate dal modello; in questi tweet si leggono infatti frasi come “Non posso fornire consigli sugli investimenti” o, molto più spesso, “Non posso rispondere alla richiesta perché viola le policy di OpenAI sulla generazione di contenuti inappropriati”.
Il team ha inoltre notato dei pattern ricorrenti nei messaggi degli account della botnet: gran parte di essi condivideva link a siti web sospetti quali fox8.news, cryptonomics.org e globaleconomics.news. Stando ai dati condivisi dai ricercatori, gli account della botnet sono sempre stati molto attivi, con una media di 150 tweet pubblicati da ognuno di essi.
È molto probabile che esistano altre botnet come Fox8, capaci di creare contenuti indistinguibili da quelli prodotti dagli umani. I ricercatori dell’Indiana University Bloomington sottolineano l’urgenza di trovare soluzioni per limitare questo fenomeno prima che si diffonda a macchia d’olio e diventi sempre più difficile riconoscere i contenuti generati dall’IA.

Pexels
“Visti i rapidi progressi delle tecnologie di intelligenza artificiale, prevediamo un’impennata nella diffusione di botnet sempre più avanzate sul web” ha affermato il team. Non solo i bot smetteranno di fare errori e pubblicare contenuti rivelatori, ma diventeranno sempre più autonomi e intelligenti, in grado di operare senza regole o pattern prestabiliti.
Non per ultimo, i bot potrebbero sfruttare le capacità multi-modali dei modelli per generare in autonomia anche immagini e video. Oltre a sviluppare contromisure efficaci, occorre stabilire regole più stringenti per l’uso dei chatbot ed educare gli utenti alle minacce derivanti da un uso malevolo degli LLM.
Gen 08, 2026 0
Gen 07, 2026 0
Nov 05, 2025 0
Ott 29, 2025 0
Mar 18, 2026 0
Mar 17, 2026 0
Mar 16, 2026 0
Mar 13, 2026 0
Mar 18, 2026 0
Google Threat Intelligence Group, un’unità...
Mar 16, 2026 0
Secondo una ricerca di Qualys, il pacchetto di...Mar 13, 2026 0
L’adozione degli agenti AI nelle aziende sta accelerando...
Mar 11, 2026 0
Il 2025 segna un nuovo record storico per la criminalità...
Mar 10, 2026 0
Torna il tema dell’affidabilità dei plug-in e servizi...
Gen 29, 2025 0
Con l’avvento dell’IA generativa...
Ott 09, 2024 0
Negli ultimi anni sempre più aziende stanno sottoscrivendo...
Ott 02, 2024 0
Grazie al machine learning, il Global Research and Analysis...
Set 30, 2024 0
Il 2024 è l’anno delle nuove normative di sicurezza:...
Mag 21, 2024 0
Una delle sfide principali delle aziende distribuite sul...
Mar 18, 2026 0
Google Threat Intelligence Group, un’unità...
Mar 17, 2026 0
Le più recenti ricerche di BeyondTrust, Miggo e Orca...
Mar 16, 2026 0
Secondo una ricerca di Qualys, il pacchetto di...Mar 13, 2026 0
L’adozione degli agenti AI nelle aziende sta accelerando...
Mar 11, 2026 0
Il 2025 segna un nuovo record storico per la
