Aggiornamenti recenti Dicembre 5th, 2025 4:48 PM
Ott 31, 2025 Marina Londei Approfondimenti, In evidenza, News, RSS, Tecnologia, Tecnologia 0
L’IA è un ottimo strumento per scrivere codice velocemente, ma un utilizzo non monitorato di questa tecnologia porta a numerosi problemi, compresi rischi di sicurezza non indifferenti.
In un approfondimento sul tema, Robert Lemos di Dark Reading riporta che, nonostante la produttività del singolo programmatore aumenti del 17%, scrivere codice con l’IA provoca anche una certa instabilità nella delivery del software e il 60% degli sviluppatori afferma di collaborare in team che o lavorano più lentamente, o faticano a rispettare le scadenze, o entrambe le cose (State of AI-assisted Software Development, Google DevOps Research and Assesment).

Il problema sta nel fatto che l’IA produce codice verboso, poco robusto e che tende ad amplificare gli errori presenti nella codebase, soprattutto quando si è in team a sviluppare e il volume di codice è significativo. I programmatori non hanno tempo di revisionare il codice come se lo stessero scrivendo loro stessi; ciò aumenta il rischio di introdurre vulnerabilità di sicurezza e debito tecnico, problemi che vengono poi replicati in tutta la codebase.
Considerando che la percentuale di programmatori che usano l’IA va dall’84% al 97% a seconda dei report, l’impatto di queste problematiche è importante.
Affidarsi soltanto agli LLM per produrre codice senza un’attenta revisione dell’output non provoca solo problemi nell’immediato: un codice pieno di vulnerabilità e prolisso è causa di lavoro extra per i team che si dovranno occupare di manutenerlo. Se è vero che nella maggior parte dei casi il codice generato dall’intelligenza artificiale supera i controlli funzionali e sintattici, il 45% di esso contiene vulnerabilità di sicurezza note (report di Veracode).
Una delle cause principali di questi problemi è che gli LLM faticano a mantenere il contesto quando hanno a che fare con una codebase ampia; per questo motivo, tendono a duplicare in maniera massiccia il codice. Gli sviluppatori si trovano quindi a dover fare numerosi rework per eliminare le vulnerabilità.
Invece di semplicemente accettare o rifiutare l’output così com’è, gli sviluppatori dovrebbero prendersi del tempo per comprenderlo ed eventualmente richiedere degli affinamenti. L’IA può invece diventare un ottimo strumento per curare il codice, chiedendo per esempio al chatbot di riscrivere una feature esistente o analizzarla per trovare problemi di sicurezza. Al programmatore deve restare quindi il controllo sulla logica e sulla qualità del codice per filtrare le possibili criticità prima che diventino parte della codebase.
Dic 03, 2025 0
Nov 27, 2025 0
Nov 24, 2025 0
Nov 14, 2025 0
Dic 05, 2025 0
Dic 04, 2025 0
Dic 02, 2025 0
Dic 01, 2025 0
Dic 05, 2025 0
Lakera, società di Check Point, ha pubblicato una ricerca...
Nov 27, 2025 0
Dopo l’esplosione di ChatGPT e degli LLM, nel mondo...
Nov 26, 2025 0
I ricercatori di watchTowr Labs hanno individuato migliaia...
Nov 24, 2025 0
Analizzando DeepSeek R1, un potente LLM dell’omonima...
Nov 21, 2025 0
Lo scorso marzo Skybox Security, società israeliana di...
Gen 29, 2025 0
Con l’avvento dell’IA generativa...
Ott 09, 2024 0
Negli ultimi anni sempre più aziende stanno sottoscrivendo...
Ott 02, 2024 0
Grazie al machine learning, il Global Research and Analysis...
Set 30, 2024 0
Il 2024 è l’anno delle nuove normative di sicurezza:...
Mag 21, 2024 0
Una delle sfide principali delle aziende distribuite sul...
Dic 04, 2025 0
Dark Telegram, il regno dei canali clandestini, non sembra...
Dic 03, 2025 0
I ricercatori di JFrog Security Research hanno...
Dic 02, 2025 0
Una campagna durata sette anni che ha infettato 4.3...
Dic 01, 2025 0
Coupang, colosso del retail sud-coreano, ha confermato di...
Dic 01, 2025 0
Nel periodo compreso tra il 22 e il 28 novembre,...
