Aggiornamenti recenti Dicembre 15th, 2025 2:32 PM
Ott 31, 2025 Marina Londei Approfondimenti, In evidenza, News, RSS, Tecnologia, Tecnologia 0
L’IA è un ottimo strumento per scrivere codice velocemente, ma un utilizzo non monitorato di questa tecnologia porta a numerosi problemi, compresi rischi di sicurezza non indifferenti.
In un approfondimento sul tema, Robert Lemos di Dark Reading riporta che, nonostante la produttività del singolo programmatore aumenti del 17%, scrivere codice con l’IA provoca anche una certa instabilità nella delivery del software e il 60% degli sviluppatori afferma di collaborare in team che o lavorano più lentamente, o faticano a rispettare le scadenze, o entrambe le cose (State of AI-assisted Software Development, Google DevOps Research and Assesment).

Il problema sta nel fatto che l’IA produce codice verboso, poco robusto e che tende ad amplificare gli errori presenti nella codebase, soprattutto quando si è in team a sviluppare e il volume di codice è significativo. I programmatori non hanno tempo di revisionare il codice come se lo stessero scrivendo loro stessi; ciò aumenta il rischio di introdurre vulnerabilità di sicurezza e debito tecnico, problemi che vengono poi replicati in tutta la codebase.
Considerando che la percentuale di programmatori che usano l’IA va dall’84% al 97% a seconda dei report, l’impatto di queste problematiche è importante.
Affidarsi soltanto agli LLM per produrre codice senza un’attenta revisione dell’output non provoca solo problemi nell’immediato: un codice pieno di vulnerabilità e prolisso è causa di lavoro extra per i team che si dovranno occupare di manutenerlo. Se è vero che nella maggior parte dei casi il codice generato dall’intelligenza artificiale supera i controlli funzionali e sintattici, il 45% di esso contiene vulnerabilità di sicurezza note (report di Veracode).
Una delle cause principali di questi problemi è che gli LLM faticano a mantenere il contesto quando hanno a che fare con una codebase ampia; per questo motivo, tendono a duplicare in maniera massiccia il codice. Gli sviluppatori si trovano quindi a dover fare numerosi rework per eliminare le vulnerabilità.
Invece di semplicemente accettare o rifiutare l’output così com’è, gli sviluppatori dovrebbero prendersi del tempo per comprenderlo ed eventualmente richiedere degli affinamenti. L’IA può invece diventare un ottimo strumento per curare il codice, chiedendo per esempio al chatbot di riscrivere una feature esistente o analizzarla per trovare problemi di sicurezza. Al programmatore deve restare quindi il controllo sulla logica e sulla qualità del codice per filtrare le possibili criticità prima che diventino parte della codebase.
Dic 15, 2025 0
Dic 11, 2025 0
Dic 10, 2025 0
Dic 09, 2025 0
Dic 15, 2025 0
Dic 12, 2025 0
Dic 12, 2025 0
Dic 08, 2025 0
Dic 15, 2025 0
Il 2025 sta giungendo al termine e nel mondo della...
Dic 10, 2025 0
Secondo il National Cyber Security Centre (NCSC),...
Dic 05, 2025 0
Lakera, società di Check Point, ha pubblicato una ricerca...
Nov 27, 2025 0
Dopo l’esplosione di ChatGPT e degli LLM, nel mondo...
Nov 26, 2025 0
I ricercatori di watchTowr Labs hanno individuato migliaia...
Gen 29, 2025 0
Con l’avvento dell’IA generativa...
Ott 09, 2024 0
Negli ultimi anni sempre più aziende stanno sottoscrivendo...
Ott 02, 2024 0
Grazie al machine learning, il Global Research and Analysis...
Set 30, 2024 0
Il 2024 è l’anno delle nuove normative di sicurezza:...
Mag 21, 2024 0
Una delle sfide principali delle aziende distribuite sul...
Dic 15, 2025 0
Nel periodo compreso tra il 6 e il 12 dicembre,...
Dic 12, 2025 0
Apple ha rilasciato degli aggiornamenti di sicurezza...
Dic 12, 2025 0
Panico in Russia: centinaia di Porsche sono rimaste...
Dic 11, 2025 0
Nel bollettino del Patch Tuesday di dicembre Microsoft ha...
Dic 10, 2025 0
Secondo il National Cyber Security Centre (NCSC),...
