Aggiornamenti recenti Gennaio 29th, 2026 4:20 PM
Ott 31, 2025 Marina Londei Approfondimenti, In evidenza, News, RSS, Tecnologia, Tecnologia 0
L’IA è un ottimo strumento per scrivere codice velocemente, ma un utilizzo non monitorato di questa tecnologia porta a numerosi problemi, compresi rischi di sicurezza non indifferenti.
In un approfondimento sul tema, Robert Lemos di Dark Reading riporta che, nonostante la produttività del singolo programmatore aumenti del 17%, scrivere codice con l’IA provoca anche una certa instabilità nella delivery del software e il 60% degli sviluppatori afferma di collaborare in team che o lavorano più lentamente, o faticano a rispettare le scadenze, o entrambe le cose (State of AI-assisted Software Development, Google DevOps Research and Assesment).

Il problema sta nel fatto che l’IA produce codice verboso, poco robusto e che tende ad amplificare gli errori presenti nella codebase, soprattutto quando si è in team a sviluppare e il volume di codice è significativo. I programmatori non hanno tempo di revisionare il codice come se lo stessero scrivendo loro stessi; ciò aumenta il rischio di introdurre vulnerabilità di sicurezza e debito tecnico, problemi che vengono poi replicati in tutta la codebase.
Considerando che la percentuale di programmatori che usano l’IA va dall’84% al 97% a seconda dei report, l’impatto di queste problematiche è importante.
Affidarsi soltanto agli LLM per produrre codice senza un’attenta revisione dell’output non provoca solo problemi nell’immediato: un codice pieno di vulnerabilità e prolisso è causa di lavoro extra per i team che si dovranno occupare di manutenerlo. Se è vero che nella maggior parte dei casi il codice generato dall’intelligenza artificiale supera i controlli funzionali e sintattici, il 45% di esso contiene vulnerabilità di sicurezza note (report di Veracode).
Una delle cause principali di questi problemi è che gli LLM faticano a mantenere il contesto quando hanno a che fare con una codebase ampia; per questo motivo, tendono a duplicare in maniera massiccia il codice. Gli sviluppatori si trovano quindi a dover fare numerosi rework per eliminare le vulnerabilità.
Invece di semplicemente accettare o rifiutare l’output così com’è, gli sviluppatori dovrebbero prendersi del tempo per comprenderlo ed eventualmente richiedere degli affinamenti. L’IA può invece diventare un ottimo strumento per curare il codice, chiedendo per esempio al chatbot di riscrivere una feature esistente o analizzarla per trovare problemi di sicurezza. Al programmatore deve restare quindi il controllo sulla logica e sulla qualità del codice per filtrare le possibili criticità prima che diventino parte della codebase.
Gen 29, 2026 0
Gen 27, 2026 0
Gen 15, 2026 0
Gen 14, 2026 0
Gen 26, 2026 0
Gen 23, 2026 0
Gen 21, 2026 0
Gen 20, 2026 0
Gen 16, 2026 0
Dall’ultima ricerca di Reflectiz, “The State of...
Gen 15, 2026 0
Microsoft ha annunciato di aver smantellato RedVDS, una...
Gen 13, 2026 0
Gli utenti aziendali utilizzano ancora password deboli,...
Gen 05, 2026 0
Il mondo della cybersecurity si appresta a vivere un 2026...
Dic 23, 2025 0
Il dark web non è più soltanto un luogo di scambio di...
Gen 29, 2025 0
Con l’avvento dell’IA generativa...
Ott 09, 2024 0
Negli ultimi anni sempre più aziende stanno sottoscrivendo...
Ott 02, 2024 0
Grazie al machine learning, il Global Research and Analysis...
Set 30, 2024 0
Il 2024 è l’anno delle nuove normative di sicurezza:...
Mag 21, 2024 0
Una delle sfide principali delle aziende distribuite sul...
Gen 29, 2026 0
Pochi giorni fa OpenSSL ha rilasciato alcune patch per...
Gen 27, 2026 0
La società di sicurezza Koi Security ha pubblicato una...
Gen 26, 2026 0
I ricercatori di ESET hanno scoperto che il tentativo di...
Gen 23, 2026 0
Zendesk, nota piattaforma di ticketing, sta venendo...
Gen 21, 2026 0
Dopo l’ultima edizione tenutasi in Irlanda lo scorso...
