Aggiornamenti recenti Maggio 4th, 2026 3:21 PM
Ago 24, 2023 Marina Londei Attacchi, In evidenza, Minacce, News, Phishing, RSS, Social engineering 0
Alcuni ricercatori dell’Indiana University Bloomington hanno individuato una botnet attiva dallo scorso maggio su X (ex Twitter) basata su ChatGPT. Chiamata Fox8, la botnet era composta da 1140 account, la maggior parte dei quali usava il chatbot per generare post e rispondere a tweet di altri account.
Come spiegano i ricercatori nel loro paper, i post e le risposte cercavano di convincere gli utenti a cliccare su link per siti di cripto valute controllati dagli attaccanti. I bot rubavano selfie sul web per creare account che sembrassero credibili, ed erano riusciti a creare una rete piuttosto densa di follower seguendosi reciprocamente.
A incastrare la botnet sono stati alcuni tweet pubblicati per sbaglio dagli account che rivelavano la loro vera natura. I post individuati dai ricercatori sono stati il punto di partenza per identificare tutti i profili falsi e smantellare la rete.

Credits: KaviDesigns345- Depositphotos
Questi post, risalenti probabilmente ai primi test della botnet su Twitter, erano il risultato di istruzioni che violavano i le linee guida di OpenAI o non contemplate dal modello; in questi tweet si leggono infatti frasi come “Non posso fornire consigli sugli investimenti” o, molto più spesso, “Non posso rispondere alla richiesta perché viola le policy di OpenAI sulla generazione di contenuti inappropriati”.
Il team ha inoltre notato dei pattern ricorrenti nei messaggi degli account della botnet: gran parte di essi condivideva link a siti web sospetti quali fox8.news, cryptonomics.org e globaleconomics.news. Stando ai dati condivisi dai ricercatori, gli account della botnet sono sempre stati molto attivi, con una media di 150 tweet pubblicati da ognuno di essi.
È molto probabile che esistano altre botnet come Fox8, capaci di creare contenuti indistinguibili da quelli prodotti dagli umani. I ricercatori dell’Indiana University Bloomington sottolineano l’urgenza di trovare soluzioni per limitare questo fenomeno prima che si diffonda a macchia d’olio e diventi sempre più difficile riconoscere i contenuti generati dall’IA.

Pexels
“Visti i rapidi progressi delle tecnologie di intelligenza artificiale, prevediamo un’impennata nella diffusione di botnet sempre più avanzate sul web” ha affermato il team. Non solo i bot smetteranno di fare errori e pubblicare contenuti rivelatori, ma diventeranno sempre più autonomi e intelligenti, in grado di operare senza regole o pattern prestabiliti.
Non per ultimo, i bot potrebbero sfruttare le capacità multi-modali dei modelli per generare in autonomia anche immagini e video. Oltre a sviluppare contromisure efficaci, occorre stabilire regole più stringenti per l’uso dei chatbot ed educare gli utenti alle minacce derivanti da un uso malevolo degli LLM.
Gen 08, 2026 0
Gen 07, 2026 0
Nov 05, 2025 0
Ott 29, 2025 0
Mag 04, 2026 0
Apr 30, 2026 0
Apr 29, 2026 0
Apr 28, 2026 0
Apr 29, 2026 0
Stanno arrivando, ma non nascono già pronti. Stiamo...
Apr 28, 2026 0
Come sappiamo, le auto moderne sono sempre più simili a...
Apr 23, 2026 0
Vi ricordate il vecchio adagio “cambia la password almeno...
Apr 16, 2026 0
Nel panorama delle minacce informatiche, esiste una...
Apr 03, 2026 0
Nel mese scorso, il governo degli USA ha rilasciato un...
Gen 29, 2025 0
Con l’avvento dell’IA generativa...
Ott 09, 2024 0
Negli ultimi anni sempre più aziende stanno sottoscrivendo...
Ott 02, 2024 0
Grazie al machine learning, il Global Research and Analysis...
Set 30, 2024 0
Il 2024 è l’anno delle nuove normative di sicurezza:...
Mag 21, 2024 0
Una delle sfide principali delle aziende distribuite sul...
Mag 04, 2026 0
CISA ha inserito Copy Fail tra le vulnerabilità sfruttate...
Apr 30, 2026 0
La compromissione della supply chain software continua a...
Apr 29, 2026 0
Stanno arrivando, ma non nascono già pronti. Stiamo...
Apr 28, 2026 0
Come sappiamo, le auto moderne sono sempre più simili a...
Apr 23, 2026 0
Vi ricordate il vecchio adagio “cambia la password almeno...
