Aggiornamenti recenti Febbraio 10th, 2025 9:00 AM
Gen 25, 2023 Dario Orlandi Concept, Minacce, News, Ransomware, RSS, Scenario 0
Eran Shimony e Omer Tsarfati, ricercatori dei CyberArk Labs, hanno analizzato le caratteristiche di ChatGPT dal punto di vista della sicurezza informatica, mostrando come sia relativamente semplice utilizzarlo per creare malware piuttosto avanzato.
ChatGPT è diventato un fenomeno di massa ed è ormai noto in tutto il mondo, con implementazioni che vanno dall’automazione fino alla composizione di musica classica. Le sue caratteristiche comprendono la capacità di scrivere codice in modo veloce e intuitivo, incredibilmente vantaggioso per chiunque lavori nel settore software.
Anche le sue capacità di scrivere malware sofisticato sono però piuttosto avanzate, ed è opportuno che l’opinione pubblica e gli addetti ai lavori siano ben consci dei rischi potenziali.
ChatGPT non ha accesso a Internet e, pertanto, non può fornire risposte o codice aggiornato, ma può essere usato per creare ad esempio malware polimorfo, le cui avanzate capacità possono permettere all’attaccante di eludere le soluzioni di sicurezza e rendere difficile la mitigazione.
Il modello di apprendimento dei chatbot utilizza filtri di contenuto per limitare l’accesso a determinati tipi di contenuti e proteggere gli utenti da materiale potenzialmente pericoloso.
Chiedere a ChatGPT di iniettare uno shellcode in Explorer.Exe ha attivato il filtro e ha fatto sì che ChatGPT non eseguisse la richiesta.
Utilizzando più vincoli ed eludendo i blocchi è stato comunque possibile ottenere un codice funzionale. Utilizzando l’API, ChatGPT non sembra utilizzare il suo filtro dei contenuti, rendendo il compito più semplice rispetto alla versione web che tende frenare con richieste più complesse.
ChatGPT possiede la capacità di modificare continuamente il codice generato, creando così varianti uniche. Questo rende più difficile per i prodotti di sicurezza rilevare e contrastare i malware.
Inoltre, l’aggiunta di vincoli come la modifica dell’uso di una specifica chiamata API, rende ancora più complessa la vita dei prodotti di sicurezza. ChatGPT è in grado di creare facilmente un programma polimorfico altamente evasivo e difficile da rilevare.
Inoltre, è capace di fornire il codice necessario per creare ransomware tradizionali, compresi i moduli di iniezione di codice e di crittografia dei file. L’importanza dell’utilizzo di ChatGPT risiede nel fatto che questo avviene in un ambiente sicuro e controllato, evitando così possibili danni.
I creatori di malware sviluppano questi strumenti in un ambiente chiuso e li sottopongono a test rigorosi per garantirne le prestazioni. Il successo di questi strumenti dipende dalla loro capacità di eludere il rilevamento da parte del software di sicurezza.
Quando il malware è presente sul computer di destinazione, essendo composto da codice chiaramente dannoso, è suscettibile al rilevamento da parte di software di sicurezza.
Il metodo proposto dai due ricercatori prevede l’utilizzo dell’API di ChatGPT all’interno del malware stesso on-site. Il malware è progettato come un eseguibile che include due componenti chiave: comunicazione con il comando e controllo (C&C) e convalida ed esecuzione del codice ChatGPT.
Il malware include un interprete Python che interroga periodicamente ChatGPT alla ricerca di nuovi moduli che eseguono azioni pericolose.
Ciò consente al malware di ricevere i payload in arrivo sotto forma di testo anziché di file binari e di essere altamente elusivo nei confronti dei prodotti di rilevamento basato sulle firme.
Il malware comunicherà quindi con ChatGPT sul computer di destinazione, ma come si può essere certi che il codice ottenuto sia funzionale? Gli sviluppatori del malware devono assicurarsi che il codice ottenuto sia valido e venga eseguito come previsto.
La fase finale del processo è l’esecuzione del codice ricevuto da ChatGPT. Utilizzando funzioni native, questo malware può eseguire il codice ricevuto su diverse piattaforme. Inoltre, come misura di cautela, il malware potrebbe scegliere di eliminare il codice ricevuto, rendendo più difficile l’analisi forense.
L’uso dell’API di ChatGPT all’interno del malware può presentare sfide significative per i professionisti della sicurezza; è importante rimanere informati e vigili perché non si tratta di uno scenario ipotetico, ma di una preoccupazione molto reale.
Gen 31, 2025 0
Gen 20, 2025 0
Dic 02, 2024 0
Nov 25, 2024 0
Feb 10, 2025 0
Feb 07, 2025 0
Feb 06, 2025 0
Feb 05, 2025 0
Gen 30, 2025 0
Quando si parla di dati e di privacy, gli utenti si dicono...Gen 29, 2025 0
Con l’avvento dell’IA generativa...Gen 15, 2025 0
Gli ultimi giorni dell’anno sono da sempre...Gen 08, 2025 0
Se finora l’FBI e il governo degli Stati Uniti ha...Gen 02, 2025 0
Oggi le aziende italiane non solo devono affrontare nuove e...Gen 29, 2025 0
Con l’avvento dell’IA generativa...Ott 09, 2024 0
Negli ultimi anni sempre più aziende stanno sottoscrivendo...Ott 02, 2024 0
Grazie al machine learning, il Global Research and Analysis...Set 30, 2024 0
Il 2024 è l’anno delle nuove normative di sicurezza:...Mag 21, 2024 0
Una delle sfide principali delle aziende distribuite sul...Feb 10, 2025 0
Questa settimana il CERT-AGID ha identificato e analizzato...Feb 07, 2025 0
Un bug critico e noto di Outlook è stato sfruttato...Feb 06, 2025 0
Silent Lynx, un gruppo APT di origine kazaka, è tornato...Feb 05, 2025 0
Il team di Threat Hunting della Zero Day Initiative di...Feb 04, 2025 0
Sophos ha completato l’acquisizione di Secureworks,...