Siamo pronti ad affrontarlo?
A cura di Ettore Guarnaccia
Le ondate di evoluzione tecnologica hanno sempre trasformato la nostra vita, e l’era dell’informatica ha portato rivoluzioni come il personal computer, Internet, i social media e gli smartphone. Oggi stiamo entrando in una nuova fase di innovazione, con l’intelligenza artificiale (IA) destinata a trasformare profondamente ogni settore della nostra società. Questa nuova ondata tecnologica si preannuncia inarrestabile e incontrollabile, paragonabile a uno tsunami.
Studio l’IA e le reti neurali da tempo e ho approfondito il loro enorme potenziale, ma anche i relativi rischi. Le grandi aziende tecnologiche prevedono che l’IA sostituirà molto presto i tradizionali motori di ricerca e assisterà le persone in moltissime attività, rendendo i processi aziendali più efficienti e redditizi. Tuttavia, come è già successo con Internet, i social media e i dispositivi digitali, non siamo ancora preparati a fronteggiare questa nuova rivoluzione tecnologica. Rischiamo quindi di pagare un prezzo elevato per la nostra mancanza di consapevolezza e formazione. Mustafa Suleyman, ex vicepresidente IA di Google e cofondatore di DeepMind, Geoffrey Hinton, pioniere della ricerca sulle reti neurali di Google, e il nostro Federico Faggin, inventore del microprocessore, profondo studioso delle reti neurali e fondatore di Synaptics, sono solo tre dei tanti esperti che ci avvertono dei rischi legati all’uso irresponsabile dell’IA, privo di supervisione umana ed etica. Non a caso, il World Economic Forum ha posizionato gli effetti avversi della tecnologia IA fra i più preoccupanti rischi globali.
Uno dei problemi principali dell’IA è l’accuratezza. Essendo sistemi probabilistici, le IA non garantiscono risposte sempre corrette, non conoscono la risposta esatta, ma forniscono la più plausibile, basandosi spesso su fonti online non sempre affidabili. Molte fonti, considerate autorevoli, sono contaminate da fake news, propaganda e vincoli dettati dal politically correct. Inoltre, l’uso dell’IA per produrre contenuti potrebbe portare a una sorta di circolo vizioso, in cui le IA creano e consumano contenuti generati da altre IA diventando autoreferenziali, e riducendo la qualità e la genuinità delle informazioni disponibili. Alcuni studi, come quelli svolti di recente da KPMG in collaborazione con l’università australiana del Queensland e da Salesforce, evidenziano che molti utenti ritengono che l’IA sia inaffidabile.
Un altro problema è la trasparenza. Molti utenti non sanno come funzionano i processi interni delle IA, e questo può portare a decisioni incomprensibili e difficilmente spiegabili. Le logiche nascoste potrebbero essere affette da pregiudizi di produttori e sviluppatori, nonché da cortocircuiti ideologici derivanti dall’uso di fonti contrastanti o prive di basi scientifiche e buon senso. E poi c’è il tema della responsabilità delle decisioni e delle azioni dell’IA, in caso di errori e danni è difficile stabilire chi sia responsabile: il produttore, chi l’ha addestrata o chi la utilizza? Inoltre, l’uso di contenuti protetti da copyright per l’addestramento delle IA è oggetto di dispute legali, come dimostra la causa intentata dal New York Times contro OpenAI e Microsoft.
L’IA viene spesso utilizzata in azienda in modo non regolamentato, creando rischi per la sicurezza dei dati aziendali. Uno studio recente di Microsoft e LinkedIn rivela che il 78% dei dipendenti nelle grandi aziende e l’80% nelle PMI utilizza già forme di IA generativa nei processi aziendali. Di conseguenza, ogni giorno dati, contenuti e documenti aziendali riservati vengono inavvertitamente caricati su piattaforme e app IA di terze parti per svariate finalità, all’insaputa dell’azienda, finendo nella disponibilità di soggetti non autorizzati. Al tempo stesso, i dipendenti concedono l’accesso agli strumenti aziendali di collaborazione (come Office 365, Teams, Zoom, ecc.) a soluzioni IA esterne, che ascoltano le videoconferenze in modalità silente e generano automaticamente i verbali degli incontri, inviandoli ai partecipanti. Molti di questi aspetti hanno indotto grandi realtà come Apple, Amazon, JP Morgan, Goldman Sachs, Citigroup, Deutsche Bank, Walmart, Wells Fargo e Verizon a vietare ai dipendenti l’uso di IA generativa.
I sistemi IA possono essere vulnerabili ad attacchi informatici o manipolazioni dei dati. Ad esempio, casi come il bot Tay di Microsoft, che è stato rapidamente “corrotto” su Twitter fino a indurlo a utilizzare un linguaggio razzista e misogino, o AI Overviews di Google, che ha raccomandato l’uso di colla per far aderire il formaggio alla pizza, mostrano come l’IA possa essere alterata. Inoltre, attacchi di vario tipo (ad esempio XSS, CSRF, SSRF e DoS) e lo sfruttamento di vulnerabilità infrastrutturali o di elementi non protetti della supply chain possono comprometterne il funzionamento, con conseguente interruzione di processi di business critici e numerosi danni per le aziende. Così come l’IA può apportare grandi benefici alla sicurezza preventiva e alle capacità di rilevazione degli attacchi, essa viene utilizzata attivamente dai criminali per produrre nuovi e più efficaci attacchi, ad esempio phishing molto sofisticato attraverso la piattaforma WormGPT e malware in grado di modificare il proprio codice per eludere i sistemi di sicurezza, come dimostrato dal virus polimorfico BlackMamba sviluppato a scopo dimostrativo dai laboratori HYAS.
Oltre ai problemi tecnici, ci sono questioni etiche e sociali legate all’uso dell’IA. Il crescente utilizzo dell’IA in sostituzione di competenze umane potrebbe portare alla perdita di posti di lavoro. Questo rischio è già avvertito in settori come quello cinematografico, dove attori e sceneggiatori hanno scioperato per chiedere regolamentazioni sull’uso dell’IA. Nei prossimi anni, molti mestieri verranno sostituiti dall’IA, aumentando l’efficienza, ma anche mettendo in pericolo il futuro di molte professioni. Un recente studio di Microsoft e LinkedIn rivela che quasi la metà dei professionisti teme che l’IA sostituirà il proprio lavoro, mentre a Londra è già in funzione la prima biglietteria IA virtuale. Infine, il problema più preoccupante, a mio avviso irrisolvibile, è che l’IA non possiede coscienza, empatia o libero arbitrio, non prova emozioni o sentimenti. In situazioni delicate, come conflitti armati, terrorismo, criminalità o scenari in cui è in gioco la vita delle persone (es. mezzi a guida autonoma o apparecchiature chirurgiche), a fronte di imprevisti l’IA potrebbe agire solo sulla base dei dati disponibili e delle logiche interne, senza considerazioni etiche o morali, senza compassione né intuito né creatività. Questo potrebbe portare a conseguenze devastanti e letali. Un migliaio di esperti hanno persino sottoscritto una lettera aperta per metterci tutti in guardia dal fatto che l’IA potrebbe in futuro diventare una minaccia per l’umanità intera, qualora non venisse adeguatamente controllata.
Per affrontare questa sfida, dobbiamo governare la nuova ondata tecnologica, non subirla passivamente. È indispensabile assicurare una supervisione umana costante sulle azioni e decisioni dell’IA, così come è urgente implementare politiche di sicurezza rigorose. È fondamentale adottare sia un controllo accurato dei dati inseriti dall’utente e delle fonti utilizzate dalle IA, sia un approccio “zero trust” con una netta separazione dei sistemi IA dal resto dell’IT aziendale, per impedire fughe non autorizzate di dati riservati. Solo con un uso etico e consapevole dell’IA potremo evitare le gravi conseguenze che un uso irresponsabile e impreparato potrebbe comportare, al tempo stesso preservando il ruolo unico e insostituibile dell’intelligenza umana.
Uno tsunami non può essere arrestato né impedito, ma è pur sempre possibile cavalcare l’onda.