Aggiornamenti recenti Luglio 10th, 2025 2:02 PM
Ago 24, 2023 Marina Londei Attacchi, In evidenza, Minacce, News, Phishing, RSS, Social engineering 0
Alcuni ricercatori dell’Indiana University Bloomington hanno individuato una botnet attiva dallo scorso maggio su X (ex Twitter) basata su ChatGPT. Chiamata Fox8, la botnet era composta da 1140 account, la maggior parte dei quali usava il chatbot per generare post e rispondere a tweet di altri account.
Come spiegano i ricercatori nel loro paper, i post e le risposte cercavano di convincere gli utenti a cliccare su link per siti di cripto valute controllati dagli attaccanti. I bot rubavano selfie sul web per creare account che sembrassero credibili, ed erano riusciti a creare una rete piuttosto densa di follower seguendosi reciprocamente.
A incastrare la botnet sono stati alcuni tweet pubblicati per sbaglio dagli account che rivelavano la loro vera natura. I post individuati dai ricercatori sono stati il punto di partenza per identificare tutti i profili falsi e smantellare la rete.
Credits: KaviDesigns345- Depositphotos
Questi post, risalenti probabilmente ai primi test della botnet su Twitter, erano il risultato di istruzioni che violavano i le linee guida di OpenAI o non contemplate dal modello; in questi tweet si leggono infatti frasi come “Non posso fornire consigli sugli investimenti” o, molto più spesso, “Non posso rispondere alla richiesta perché viola le policy di OpenAI sulla generazione di contenuti inappropriati”.
Il team ha inoltre notato dei pattern ricorrenti nei messaggi degli account della botnet: gran parte di essi condivideva link a siti web sospetti quali fox8.news, cryptonomics.org e globaleconomics.news. Stando ai dati condivisi dai ricercatori, gli account della botnet sono sempre stati molto attivi, con una media di 150 tweet pubblicati da ognuno di essi.
È molto probabile che esistano altre botnet come Fox8, capaci di creare contenuti indistinguibili da quelli prodotti dagli umani. I ricercatori dell’Indiana University Bloomington sottolineano l’urgenza di trovare soluzioni per limitare questo fenomeno prima che si diffonda a macchia d’olio e diventi sempre più difficile riconoscere i contenuti generati dall’IA.
Pexels
“Visti i rapidi progressi delle tecnologie di intelligenza artificiale, prevediamo un’impennata nella diffusione di botnet sempre più avanzate sul web” ha affermato il team. Non solo i bot smetteranno di fare errori e pubblicare contenuti rivelatori, ma diventeranno sempre più autonomi e intelligenti, in grado di operare senza regole o pattern prestabiliti.
Non per ultimo, i bot potrebbero sfruttare le capacità multi-modali dei modelli per generare in autonomia anche immagini e video. Oltre a sviluppare contromisure efficaci, occorre stabilire regole più stringenti per l’uso dei chatbot ed educare gli utenti alle minacce derivanti da un uso malevolo degli LLM.
Giu 06, 2025 0
Apr 18, 2025 0
Apr 08, 2025 0
Mar 07, 2025 0
Lug 10, 2025 0
Lug 09, 2025 0
Lug 08, 2025 0
Lug 07, 2025 0
Lug 08, 2025 0
In una recente analisi, Group-IB ha approfondito il ruolo...Lug 03, 2025 0
Recentemente il team Satori Threat Intelligence di HUMAN ha...Giu 09, 2025 0
La cybersecurity sta acquisendo sempre più importanza tra...Mag 30, 2025 0
Nel 2024, le piccole e medie imprese, spesso considerate il...Mag 27, 2025 0
MATLAB ha smesso di funzionare per quasi una settimana e...Gen 29, 2025 0
Con l’avvento dell’IA generativa...Ott 09, 2024 0
Negli ultimi anni sempre più aziende stanno sottoscrivendo...Ott 02, 2024 0
Grazie al machine learning, il Global Research and Analysis...Set 30, 2024 0
Il 2024 è l’anno delle nuove normative di sicurezza:...Mag 21, 2024 0
Una delle sfide principali delle aziende distribuite sul...Lug 10, 2025 0
Un nuovo gruppo APT entra nei radar dei ricercatori di...Lug 09, 2025 0
Un gruppo di cybercriminali ha rubato circa 140 milioni...Lug 08, 2025 0
In una recente analisi, Group-IB ha approfondito il ruolo...Lug 07, 2025 0
Da giovedì scorso Ingram Micro sta soffrendo per via di...Lug 07, 2025 0
Nella settimana appena trascorsa, il CERT-AGID ha...