L’IA generativa è oggi fortemente integrata in molti processi lavorativi. Questo vale anche per Wildix. Wildix utilizza strumenti di IA per la creazione di contenuti ed e-mail, verificati dal nostro team di copywriter, mentre i nostri sviluppatori utilizzano strumenti di IA sviluppare codici. Anche il nostro CEO utilizza l’intelligenza artificiale per migliorare le e-mail in modo da garantire la massima chiarezza.
Tutto questo avviene sotto l’occhio vigile di professionisti qualificati che comprendono i sistemi che stanno utilizzando e i loro limiti. Parliamo ora di quello che accade quando gli sviluppatori utilizzano l’IA senza una supervisione appropriata.
Alcuni Dati: Sviluppatori e IA
Nel 2023, Zero to Mastery ha creato un sondaggio per richiedere il feedback dei programmatori: si tratta di una risorsa completa per gli sviluppatori che desiderano migliorare le proprie competenze. L’azienda descrive che:
- L’84,4% dei programmatori utilizza strumenti alimentati da IA.
- Il più comune è ChatGPT, utilizzato settimanalmente dal 74,9% dei programmatori.
- Il 58,5% usa l’IA per scrivere codici.
- Il 36,6% di quanti utilizzano l’IA afferma di essere scoraggiato dalla curva di apprendimento.
- Il 13,4% di quanti non utilizzano l’IA afferma di essere preoccupato per la precisione e l’accuratezza.
- Il 77,8% dei programmatori ritiene che gli strumenti di IA abbiano un impatto positivo.
Nel complesso, emerge un quadro positivo dell’uso dell’IA da parte di sviluppatori qualificati. Fin tanto che questi sviluppatori comprendono le basi del codice che stanno utilizzando e possono testarlo, non ci sono problemi. Il problema nasce quando i programmatori sono spinti a utilizzare l’IA, ma non comprendono bene cosa stanno facendo e inseriscono un pezzo di codice difettoso alla base del codice stesso.
I Rischi di un Codice IA
“Un bravo sviluppatore è ancora più bravo con ChatGPT”, afferma Dimitri Osler, fondatore e CTO di Wildix. “Tuttavia, questo strumento è molto pericoloso nelle mani di sviluppatori inesperti o di aziende che non eseguono i controlli di sicurezza e qualità richiesti. Grazie all’IA, gli sviluppatori sono in grado di utilizzare codici che non comprendono o che non sono supportati, ed è un grande passo avanti”.
Dal nostro punto di vista, l’IA è paragonabile ad uno strumento. Utilizzarla non è, di per sé, né positivo né negativo: è infatti il modo in cui questa tecnologia viene usata ad essere positivo o negativo. Lo stesso vale per strumenti come Stack Overflow o GitHub:
- Stack Overflow è un forum di domande e risposte in cui gli sviluppatori possono avere opinioni e risposte sul codice che stanno sviluppando.
- GitHub è un repository in cui gli sviluppatori possono condividere codici e collaborare a vari progetti.
L’uso di entrambi questi strumenti comporta un certo numero di rischi. Le speculazioni iniziali sulla violazione di 3CX dello scorso marzo 2023 suggerivano che questa derivasse da un repository di codici GitHub infetto, anche se in seguito l’informazione è stata smentita. In effetti, lo stesso GitHub è risultato esposto ad attacchi RepoJacking, durante i quali gli hacker prendevano il controllo di un repository assumendone il nome ad esso associato e popolando di codice malevolo il repository in questione, una volta assunto il controllo. Questo problema è stato risolto.
Il codice malevolo non è una novità, ma l’IA peggiora potenzialmente un problema esistente.
“Nella migliore delle ipotesi, un codice IA programmato male semplicemente non funziona”, osserva Dimitri. “Il codice viene rifiutato e deve essere generato un nuovo codice, possibilmente funzionante (si spera). Nella peggiore delle ipotesi, il codice inizialmente funziona, ma in un secondo momento genera un exploit perché nessuno ha avuto tempo di testarlo”.
La chiave per mantenere i sistemi al sicuro, quindi, sono test regolari da parte di sviluppatori altamente qualificati. Nel marzo 2023, Dimitri utilizzava queste parole: “La sicurezza non costa poco. I MSP non possono più permettersi di correre rischi, la loro reputazione subirà un duro colpo se sceglieranno l’opzione più economica”.
Queste parole si riferivano alla violazione di 3CX: questo attacco ha causato molto stress e preoccupazione sia ai MSP che agli utenti finali. Parte del problema sembra essere stato che il codice è stato inserito senza effettuare dei test appropriati, che è uno dei grandi problemi con i prodotti VoIP più economici che devono ridurre i costi il più possibile per rimanere entro un certo range di prezzo.
L’intelligenza artificiale può anche accelerare notevolmente i test. “Utilizziamo strumenti di intelligenza artificiale per automatizzare alcuni test, perché grazie ad essa è possibile verificare rapidamente la correttezza del codice”, spiega Dimitri. “Funziona come uno step aggiuntivo del processo già esistente, non si sostituisce ad una fase esistente, ma rende più rapido il processo di Controllo Qualità perché effettua un primo controllo e fornisce un codice più pulito”.
In conclusione, programmare servendosi dell’IA richiederà sviluppatori estremamente esperti per supervisionare il processo, in particolare perché spesso non è chiaro come il codice originale sia stato creato dal software alimentato dall’IA. Prendere delle scorciatoie quando si tratta di sicurezza non è un’opzione in Wildix, specie considerando che moltissimi utenti dipendono dai nostri sistemi.
“È necessario effettuare test approfonditi indipendentemente dal fatto che si utilizzi o meno l’IA nel processo di programmazione”, osserva Dimitri. “L’IA è solo uno strumento da utilizzare: sono i processi che ruotano attorno ad essa a determinare se la si usa bene o male”.
L’IA utilizzata nel processo di programmazione è il futuro, ma spetta alle aziende trovare un modo per utilizzarla senza compromettere i propri utenti.
Per ulteriori approfondimenti sulla sicurezza e sulla nostra filosofia secure by design, registrati per ricevere gratuitamente il nostro magazine!