Aggiornamenti recenti Aprile 30th, 2025 9:31 AM
Gen 25, 2023 Dario Orlandi Concept, Minacce, News, Ransomware, RSS, Scenario 0
Eran Shimony e Omer Tsarfati, ricercatori dei CyberArk Labs, hanno analizzato le caratteristiche di ChatGPT dal punto di vista della sicurezza informatica, mostrando come sia relativamente semplice utilizzarlo per creare malware piuttosto avanzato.
ChatGPT è diventato un fenomeno di massa ed è ormai noto in tutto il mondo, con implementazioni che vanno dall’automazione fino alla composizione di musica classica. Le sue caratteristiche comprendono la capacità di scrivere codice in modo veloce e intuitivo, incredibilmente vantaggioso per chiunque lavori nel settore software.
Anche le sue capacità di scrivere malware sofisticato sono però piuttosto avanzate, ed è opportuno che l’opinione pubblica e gli addetti ai lavori siano ben consci dei rischi potenziali.
ChatGPT non ha accesso a Internet e, pertanto, non può fornire risposte o codice aggiornato, ma può essere usato per creare ad esempio malware polimorfo, le cui avanzate capacità possono permettere all’attaccante di eludere le soluzioni di sicurezza e rendere difficile la mitigazione.
Il modello di apprendimento dei chatbot utilizza filtri di contenuto per limitare l’accesso a determinati tipi di contenuti e proteggere gli utenti da materiale potenzialmente pericoloso.
Chiedere a ChatGPT di iniettare uno shellcode in Explorer.Exe ha attivato il filtro e ha fatto sì che ChatGPT non eseguisse la richiesta.
Utilizzando più vincoli ed eludendo i blocchi è stato comunque possibile ottenere un codice funzionale. Utilizzando l’API, ChatGPT non sembra utilizzare il suo filtro dei contenuti, rendendo il compito più semplice rispetto alla versione web che tende frenare con richieste più complesse.
ChatGPT possiede la capacità di modificare continuamente il codice generato, creando così varianti uniche. Questo rende più difficile per i prodotti di sicurezza rilevare e contrastare i malware.
Inoltre, l’aggiunta di vincoli come la modifica dell’uso di una specifica chiamata API, rende ancora più complessa la vita dei prodotti di sicurezza. ChatGPT è in grado di creare facilmente un programma polimorfico altamente evasivo e difficile da rilevare.
Inoltre, è capace di fornire il codice necessario per creare ransomware tradizionali, compresi i moduli di iniezione di codice e di crittografia dei file. L’importanza dell’utilizzo di ChatGPT risiede nel fatto che questo avviene in un ambiente sicuro e controllato, evitando così possibili danni.
I creatori di malware sviluppano questi strumenti in un ambiente chiuso e li sottopongono a test rigorosi per garantirne le prestazioni. Il successo di questi strumenti dipende dalla loro capacità di eludere il rilevamento da parte del software di sicurezza.
Quando il malware è presente sul computer di destinazione, essendo composto da codice chiaramente dannoso, è suscettibile al rilevamento da parte di software di sicurezza.
Il metodo proposto dai due ricercatori prevede l’utilizzo dell’API di ChatGPT all’interno del malware stesso on-site. Il malware è progettato come un eseguibile che include due componenti chiave: comunicazione con il comando e controllo (C&C) e convalida ed esecuzione del codice ChatGPT.
Il malware include un interprete Python che interroga periodicamente ChatGPT alla ricerca di nuovi moduli che eseguono azioni pericolose.
Ciò consente al malware di ricevere i payload in arrivo sotto forma di testo anziché di file binari e di essere altamente elusivo nei confronti dei prodotti di rilevamento basato sulle firme.
Il malware comunicherà quindi con ChatGPT sul computer di destinazione, ma come si può essere certi che il codice ottenuto sia funzionale? Gli sviluppatori del malware devono assicurarsi che il codice ottenuto sia valido e venga eseguito come previsto.
La fase finale del processo è l’esecuzione del codice ricevuto da ChatGPT. Utilizzando funzioni native, questo malware può eseguire il codice ricevuto su diverse piattaforme. Inoltre, come misura di cautela, il malware potrebbe scegliere di eliminare il codice ricevuto, rendendo più difficile l’analisi forense.
L’uso dell’API di ChatGPT all’interno del malware può presentare sfide significative per i professionisti della sicurezza; è importante rimanere informati e vigili perché non si tratta di uno scenario ipotetico, ma di una preoccupazione molto reale.
Apr 30, 2025 0
Apr 15, 2025 0
Apr 09, 2025 0
Apr 08, 2025 0
Apr 29, 2025 0
Apr 28, 2025 0
Apr 24, 2025 0
Apr 23, 2025 0
Apr 29, 2025 0
Secondo una recente analisi pubblicata dal Threat...Apr 18, 2025 0
I ricercatori di Cisco Talos hanno pubblicato una nuova...Apr 15, 2025 0
La diffusione dell’IA e il progressivo miglioramento...Apr 09, 2025 0
Gli agenti di IA stanno diventando sempre più capaci, in...Apr 07, 2025 0
I file PDF possono diventare molto pericolosi: stando a una...Gen 29, 2025 0
Con l’avvento dell’IA generativa...Ott 09, 2024 0
Negli ultimi anni sempre più aziende stanno sottoscrivendo...Ott 02, 2024 0
Grazie al machine learning, il Global Research and Analysis...Set 30, 2024 0
Il 2024 è l’anno delle nuove normative di sicurezza:...Mag 21, 2024 0
Una delle sfide principali delle aziende distribuite sul...Apr 30, 2025 0
Quest’anno la RSA Conference, il più grande evento...Apr 29, 2025 0
Secondo una recente analisi pubblicata dal Threat...Apr 28, 2025 0
Una delle ultime patch di Windows, rilasciata per risolvere...Apr 24, 2025 0
I ricercatori di Dr. Web, fornitore russo di software...Apr 23, 2025 0
A sei anni dal primo annuncio, Google ha deciso di...