Aggiornamenti recenti Marzo 13th, 2026 3:29 PM
Ott 31, 2025 Marina Londei Approfondimenti, In evidenza, News, RSS, Tecnologia, Tecnologia 0
L’IA è un ottimo strumento per scrivere codice velocemente, ma un utilizzo non monitorato di questa tecnologia porta a numerosi problemi, compresi rischi di sicurezza non indifferenti.
In un approfondimento sul tema, Robert Lemos di Dark Reading riporta che, nonostante la produttività del singolo programmatore aumenti del 17%, scrivere codice con l’IA provoca anche una certa instabilità nella delivery del software e il 60% degli sviluppatori afferma di collaborare in team che o lavorano più lentamente, o faticano a rispettare le scadenze, o entrambe le cose (State of AI-assisted Software Development, Google DevOps Research and Assesment).

Il problema sta nel fatto che l’IA produce codice verboso, poco robusto e che tende ad amplificare gli errori presenti nella codebase, soprattutto quando si è in team a sviluppare e il volume di codice è significativo. I programmatori non hanno tempo di revisionare il codice come se lo stessero scrivendo loro stessi; ciò aumenta il rischio di introdurre vulnerabilità di sicurezza e debito tecnico, problemi che vengono poi replicati in tutta la codebase.
Considerando che la percentuale di programmatori che usano l’IA va dall’84% al 97% a seconda dei report, l’impatto di queste problematiche è importante.
Affidarsi soltanto agli LLM per produrre codice senza un’attenta revisione dell’output non provoca solo problemi nell’immediato: un codice pieno di vulnerabilità e prolisso è causa di lavoro extra per i team che si dovranno occupare di manutenerlo. Se è vero che nella maggior parte dei casi il codice generato dall’intelligenza artificiale supera i controlli funzionali e sintattici, il 45% di esso contiene vulnerabilità di sicurezza note (report di Veracode).
Una delle cause principali di questi problemi è che gli LLM faticano a mantenere il contesto quando hanno a che fare con una codebase ampia; per questo motivo, tendono a duplicare in maniera massiccia il codice. Gli sviluppatori si trovano quindi a dover fare numerosi rework per eliminare le vulnerabilità.
Invece di semplicemente accettare o rifiutare l’output così com’è, gli sviluppatori dovrebbero prendersi del tempo per comprenderlo ed eventualmente richiedere degli affinamenti. L’IA può invece diventare un ottimo strumento per curare il codice, chiedendo per esempio al chatbot di riscrivere una feature esistente o analizzarla per trovare problemi di sicurezza. Al programmatore deve restare quindi il controllo sulla logica e sulla qualità del codice per filtrare le possibili criticità prima che diventino parte della codebase.
Feb 18, 2026 0
Feb 13, 2026 0
Gen 29, 2026 0
Gen 27, 2026 0
Mar 13, 2026 0
Mar 11, 2026 0
Mar 10, 2026 0
Mar 06, 2026 0
Mar 13, 2026 0
L’adozione degli agenti AI nelle aziende sta accelerando...
Mar 11, 2026 0
Il 2025 segna un nuovo record storico per la criminalità...
Mar 10, 2026 0
Torna il tema dell’affidabilità dei plug-in e servizi...
Mar 06, 2026 0
Nel mondo dello sviluppo software e delle infrastrutture...
Mar 05, 2026 0
L’adozione crescente dell’intelligenza artificiale...
Gen 29, 2025 0
Con l’avvento dell’IA generativa...
Ott 09, 2024 0
Negli ultimi anni sempre più aziende stanno sottoscrivendo...
Ott 02, 2024 0
Grazie al machine learning, il Global Research and Analysis...
Set 30, 2024 0
Il 2024 è l’anno delle nuove normative di sicurezza:...
Mag 21, 2024 0
Una delle sfide principali delle aziende distribuite sul...Mar 13, 2026 0
L’adozione degli agenti AI nelle aziende sta accelerando...
Mar 11, 2026 0
Il 2025 segna un nuovo record storico per la
Mar 10, 2026 0
Torna il tema dell’affidabilità dei plug-in e servizi...
Mar 06, 2026 0
Nel mondo dello sviluppo software e delle infrastrutture...
Mar 05, 2026 0
L’adozione crescente dell’intelligenza artificiale...
