Aggiornamenti recenti Ottobre 2nd, 2023 2:00 PM
Giu 07, 2023 Marina Londei Approfondimenti, Attacchi, Hacking, Malware, RSS, Software, Vulnerabilità 0
L’IA generativa viene già usata dai cybercriminali per sviluppare tool di attacco sempre più efficaci: i modelli possono essere usati per generare email di phishing ancora più convincenti, o creare contenuti basandosi sul tone of voice aziendale per realizzare campagne di scamming online. I chatbot e gli strumenti generativi pongono inoltre numerosi rischi etici e di correttezza delle informazioni se usati in maniera scorretta.
D’altra parte, però, le nuove tecnologie possono essere usate anche dagli esperti di sicurezza e dagli sviluppatori per ridurre la complessità operativa e garantire efficienza ai processi, migliorando l’uso dei modelli. Tenable ha pubblicato un report in cui illustra quattro tool di IA generativa per ridurre la complessità dei processi di reverse engineering, debugging di codice e sicurezza delle web app, oltre ad aumentare la visibilità negli strumenti cloud-based.
Il team di ricercatori di Tenable ha usato gli LLM per sviluppare quattro tool per diverse funzioni. Il primo è G-3PO, uno strumento di reverse engineering per ridurre la complessità di analisi del codice. Il tool automatizza il flusso di reverse engineering analizzando il codice decompilato di una funzione e fornendo una spiegazione su ciò che fa il metodo, insieme ad alcuni suggerimenti sui nomi delle variabili.
Credits: SeventyFour- Depositphotos
Lo strumento è stato sviluppato per arricchire Ghidra, un framework molto utilizzato nella community di sicurezza. Ghidra si occupa di disassemblare un binario in una lista di azioni in assembly, ricostruire il flusso di esecuzione e decompilare la lista in codice sorgente C. A questo punto subentra l’analisi manuale, fase durante la quale il ricercatore inserisce commenti per spiegare le funzioni e migliorare la leggibilità del codice. G-3PO è pensato proprio per automatizzare quest’ultima fase e velocizzare l’intero processo.
Il team di ricerca di Tenable ha sviluppato anche un assistente di IA per il debugger di GNU (GDB). Il tool è pensato come un estensione di GEF e Pwndbg, i due framework più utilizzati di GDB.
L’assistente di Tenable offre un’interfaccia interattiva per esplorare il contesto di debugging e può usare le informazioni ricavate da Ghidra per arricchire la conoscenza. Gli utenti possono interagire col tool specificando domande come “Questa funzione è vulnerabile?”, o approfondire casi specifici nel flusso di esecuzione del codice.
L’assistente è in grado di individuare le vulnerabilità del codice, i casi in cui possono essere sfruttare e offrire soluzioni per risolverle. Durante ogni step di debug gli utenti possono approfondire il funzionamento del codice ponendo domande in linguaggio naturale, riducendo così la complessità e le tempistiche del debugging.
Credits: Pexels
Uno dei temi più sentiti dai team di sicurezza è la protezione delle web app: individuare le vulnerabilità insite nelle singole applicazioni è diventato molto complesso e, anche se esistono tool per la scansione delle applicazioni, non sempre è possibile individuarle tutte.
Tenable ha sviluppato BurpGPT, un’estensione di Burp Suite che permette ai ricercatori di usare GPT per analizzare il traffico HTTP. Il tool sfrutta la feature proxy di Burp Suite per intercettare il traffico e utilizza le API di OpenAI per analizzare il traffico e identificare potenziali rischi.
BurpGPT può essere usato per trovare configurazioni errate, punti di injection e vulnerabilità Cross-Site Scripting, ed è inoltre in grado di fornire possibili soluzioni per il problema. Grazie a BurpGPT i ricercatori hanno ridotto il tempo necessario al testing manuale, automatizzando numerosi test per le applicazioni web.
EscalateGPT è uno strumento pensato per identificare tutte le vulnerabilità di escalation dei privilegi nell’identity and access management (IAM) di Amazon Web Services. Le configurazioni errate nel controllo degli accessi sono una delle preoccupazioni principali per la sicurezza del cloud, e anche una delle vulnerabilità più sfruttate per ottenere accesso ai sistemi.
Il tool raccoglie tutte le policy IAM associate con gruppi e singoli utenti e le propone a GPT per individuare potenziali opportunità di escalation dei privilegi e le migliori azioni per mitigare il rischio. EscalateGPT fornisce un file JSON con le informazioni sul percorso e l’Amazon Resource Name della policy che potrebbe essere sfruttata, insieme alle migliori strategie di risoluzione.
Credits: Pixabay
La evoluzione degli LLM sta preoccupando gli esperti di sicurezza per via del vantaggio che assicura agli attaccanti. Mentre il cybercrimine sta preparando il terreno per nuovi attacchi sfruttando la potenza dell’IA generativa, i team di sicurezza possono anticipare le potenziali minacce e usare i modelli generativi a proprio vantaggio.
Ott 02, 2023 0
Set 29, 2023 0
Set 20, 2023 0
Set 14, 2023 0
Ott 02, 2023 0
Ott 02, 2023 0
Set 29, 2023 0
Set 28, 2023 0
Ott 02, 2023 0
La maggior parte dei leader di cybersecurity segue un...Ott 02, 2023 0
Sebbene molti ruoli nella cybersecurity non richiedano una...Set 27, 2023 0
I cybercriminali stanno sviluppando nuovi attacchi,...Set 26, 2023 0
Sembra che la cybersecurity sia diventata centrale per il...Set 19, 2023 0
Uno dei modi migliori per condividere idee e favorire la...Mag 04, 2018 0
E se vi dicessimo che la saga di Star Wars ...Nov 14, 2016 2
Abbiamo rubato al blog di Kaspersky un vecchio pezzo di...Nov 08, 2016 2
Il numero uno degli scacchi mondiali Magnus Carlsen ha...Ott 28, 2016 0
Il pirata informatico che ha creato il ransomware cerca...Ott 11, 2016 0
Dopo la raffica di figuracce, l’azienda sospende per...Ott 02, 2023 0
I ricercatori di Symantec hanno individuato una nuova...Set 29, 2023 0
Gli attacchi contro gli hotel di lusso non si arrestano:...Set 29, 2023 0
Un’indagine congiunta di Group-IB e Bridewell ha...Set 28, 2023 0
L’ultimo aggiornamento di Windows 11 include nuove...Set 28, 2023 0
ZeroFont, una tecnica di phishing già ampiamente...