Aggiornamenti recenti Giugno 13th, 2025 12:44 AM
Giu 07, 2023 Marina Londei Approfondimenti, Attacchi, Hacking, Malware, RSS, Software, Vulnerabilità 0
L’IA generativa viene già usata dai cybercriminali per sviluppare tool di attacco sempre più efficaci: i modelli possono essere usati per generare email di phishing ancora più convincenti, o creare contenuti basandosi sul tone of voice aziendale per realizzare campagne di scamming online. I chatbot e gli strumenti generativi pongono inoltre numerosi rischi etici e di correttezza delle informazioni se usati in maniera scorretta.
D’altra parte, però, le nuove tecnologie possono essere usate anche dagli esperti di sicurezza e dagli sviluppatori per ridurre la complessità operativa e garantire efficienza ai processi, migliorando l’uso dei modelli. Tenable ha pubblicato un report in cui illustra quattro tool di IA generativa per ridurre la complessità dei processi di reverse engineering, debugging di codice e sicurezza delle web app, oltre ad aumentare la visibilità negli strumenti cloud-based.
Il team di ricercatori di Tenable ha usato gli LLM per sviluppare quattro tool per diverse funzioni. Il primo è G-3PO, uno strumento di reverse engineering per ridurre la complessità di analisi del codice. Il tool automatizza il flusso di reverse engineering analizzando il codice decompilato di una funzione e fornendo una spiegazione su ciò che fa il metodo, insieme ad alcuni suggerimenti sui nomi delle variabili.
Credits: SeventyFour- Depositphotos
Lo strumento è stato sviluppato per arricchire Ghidra, un framework molto utilizzato nella community di sicurezza. Ghidra si occupa di disassemblare un binario in una lista di azioni in assembly, ricostruire il flusso di esecuzione e decompilare la lista in codice sorgente C. A questo punto subentra l’analisi manuale, fase durante la quale il ricercatore inserisce commenti per spiegare le funzioni e migliorare la leggibilità del codice. G-3PO è pensato proprio per automatizzare quest’ultima fase e velocizzare l’intero processo.
Il team di ricerca di Tenable ha sviluppato anche un assistente di IA per il debugger di GNU (GDB). Il tool è pensato come un estensione di GEF e Pwndbg, i due framework più utilizzati di GDB.
L’assistente di Tenable offre un’interfaccia interattiva per esplorare il contesto di debugging e può usare le informazioni ricavate da Ghidra per arricchire la conoscenza. Gli utenti possono interagire col tool specificando domande come “Questa funzione è vulnerabile?”, o approfondire casi specifici nel flusso di esecuzione del codice.
L’assistente è in grado di individuare le vulnerabilità del codice, i casi in cui possono essere sfruttare e offrire soluzioni per risolverle. Durante ogni step di debug gli utenti possono approfondire il funzionamento del codice ponendo domande in linguaggio naturale, riducendo così la complessità e le tempistiche del debugging.
Credits: Pexels
Uno dei temi più sentiti dai team di sicurezza è la protezione delle web app: individuare le vulnerabilità insite nelle singole applicazioni è diventato molto complesso e, anche se esistono tool per la scansione delle applicazioni, non sempre è possibile individuarle tutte.
Tenable ha sviluppato BurpGPT, un’estensione di Burp Suite che permette ai ricercatori di usare GPT per analizzare il traffico HTTP. Il tool sfrutta la feature proxy di Burp Suite per intercettare il traffico e utilizza le API di OpenAI per analizzare il traffico e identificare potenziali rischi.
BurpGPT può essere usato per trovare configurazioni errate, punti di injection e vulnerabilità Cross-Site Scripting, ed è inoltre in grado di fornire possibili soluzioni per il problema. Grazie a BurpGPT i ricercatori hanno ridotto il tempo necessario al testing manuale, automatizzando numerosi test per le applicazioni web.
EscalateGPT è uno strumento pensato per identificare tutte le vulnerabilità di escalation dei privilegi nell’identity and access management (IAM) di Amazon Web Services. Le configurazioni errate nel controllo degli accessi sono una delle preoccupazioni principali per la sicurezza del cloud, e anche una delle vulnerabilità più sfruttate per ottenere accesso ai sistemi.
Il tool raccoglie tutte le policy IAM associate con gruppi e singoli utenti e le propone a GPT per individuare potenziali opportunità di escalation dei privilegi e le migliori azioni per mitigare il rischio. EscalateGPT fornisce un file JSON con le informazioni sul percorso e l’Amazon Resource Name della policy che potrebbe essere sfruttata, insieme alle migliori strategie di risoluzione.
Credits: Pixabay
La evoluzione degli LLM sta preoccupando gli esperti di sicurezza per via del vantaggio che assicura agli attaccanti. Mentre il cybercrimine sta preparando il terreno per nuovi attacchi sfruttando la potenza dell’IA generativa, i team di sicurezza possono anticipare le potenziali minacce e usare i modelli generativi a proprio vantaggio.
Mag 30, 2025 0
Apr 24, 2025 0
Apr 22, 2025 0
Apr 18, 2025 0
Giu 13, 2025 0
Giu 12, 2025 0
Giu 11, 2025 0
Giu 10, 2025 0
Giu 09, 2025 0
La cybersecurity sta acquisendo sempre più importanza tra...Mag 30, 2025 0
Nel 2024, le piccole e medie imprese, spesso considerate il...Mag 27, 2025 0
MATLAB ha smesso di funzionare per quasi una settimana e...Mag 27, 2025 0
Nel corso del “TRU Security Day 2025” di...Mag 26, 2025 0
I ricercatori di Akamai hanno individuato di recente...Gen 29, 2025 0
Con l’avvento dell’IA generativa...Ott 09, 2024 0
Negli ultimi anni sempre più aziende stanno sottoscrivendo...Ott 02, 2024 0
Grazie al machine learning, il Global Research and Analysis...Set 30, 2024 0
Il 2024 è l’anno delle nuove normative di sicurezza:...Mag 21, 2024 0
Una delle sfide principali delle aziende distribuite sul...Giu 13, 2025 0
Nel gennaio 2025, i ricercatori di Aim Labs hanno...Giu 12, 2025 0
Le reti air-gapped, ovvero fisicamente separate da Internet...Giu 11, 2025 0
Nell’aggiornamento di sicurezza di giugno Microsoft...Giu 10, 2025 0
Di recente Google ha agito su un bug che consentiva...Giu 10, 2025 0
In un contesto nazionale in cui il cyber crime colpisce...