ANCONA – Droni e missili guidati. L’Intelligenza Artificiale sta cambiando il modo di fare la guerra. L’avanzamento tecnologico ha permesso di creare armamenti sempre più sofisticati ed economici che si affiancano a quelli più tradizionali. Ma oggi i conflitti si combattono anche con il digitale: gli attacchi informatici prendono di mira le infrastrutture governative, le banche, le comunicazioni.
Cruciale poi la comunicazione che viaggia attraverso i social network. I messaggi e le immagini permettono una narrazione rapida del conflitto, aprendo però al rischio di fake news e di manipolazione dell’informazione, non filtrata dai media tradizionali (giornali e tv). Abbiamo parlato dell’impatto dell’Intelligenza Artificiale in campo militare con Domenico Ursino, professore ordinario di Sistemi di elaborazione delle informazioni presso la Facoltà di Ingegneria dell’Università Politecnica delle Marche.
Professore l’AI è una minaccia della quale aver paura? «L’AI al momento non è una minaccia della quale dobbiamo avere paura, anche se presenta una serie di criticità, legate ai contesti dell’etica, del diritto, della sicurezza e della privacy, che devono essere regolamentati. Tale regolamentazione andrebbe portata avanti con urgenza, dal momento che la velocità di crescita di questa tecnologia è enorme. Se non si procede in tale direzione, l’AI potrebbe diventare una minaccia nel futuro. Vorrei anche dire che l’Unione Europea si sta già muovendo verso la direzione della regolamentazione, con il cosiddetto AI Act».
Una delle frontiere più inquietanti è l’impiego in ambito militare, lei che ne pensa? «Penso che l’Intelligenza Artificiale, come tante altre scoperte del passato, sia in sé e per sé uno strumento neutro, che diventa “buono” o “cattivo” a seconda di come venga utilizzato dall’uomo. Purtroppo, ancora una volta, stiamo assistendo anche ad usi “cattivi” dell’Intelligenza Artificiale, e l’utilizzo in ambito militare è uno di questi. In questo contesto l’Intelligenza Artificiale, se usata per scopi offensivi, può essere un’arma veramente pericolosa, foriera di morte e distruzione».
Quali i vantaggi e i rischi di questa tecnologia? «L’Intelligenza Artificiale oramai è presente ovunque nella nostra vita quotidiana. Talvolta la usiamo o la subiamo senza accorgercene. Essa viene, ad esempio, utilizzata in ambito medico, come supporto alla diagnosi di alcune malattie, nel contesto del marketing, per proporre offerte personalizzate, nella medicina di precisione, che forse un giorno ci permetterà di sconfiggere il cancro, nel settore manifatturiero, per eliminare gli sprechi, nell’agricoltura di precisione, per usare al meglio le risorse come l’acqua, nella realizzazione di chatbot, che ormai spesso interagiscono direttamente con noi. I rischi sono legati, oltre che all’utilizzo in contesti quali la guerra e il crimine, anche a problematiche di natura giuridica, ad esempio, se un’automobile a guida autonoma, supportata dall’Intelligenza Artificiale, effettua un incidente, chi è il responsabile? La questione etica, basti pensare al dibattito che si è aperto sui diritti di autore nei confronti di ChatGPT, di privacy: chi detiene i dati che noi forniamo giornalmente ai sistemi di Intelligenza Artificiale quando li usiamo? Che uso ne fa? C’è la possibilità che li utilizzi per forzare l’opinione pubblica, mettendo a rischio la democrazia ? C’è il rischio che li utilizzi per controllare i cittadini, come purtroppo avviene in Cina?».
Quanto questa tecnologia sta cambiando il modo di fare guerra e la difesa militare? «Questa tecnologia sta modificando in modo pesante il modo di fare guerra e la difesa militare. Purtroppo, leggiamo ogni giorno notizie di distruzioni operate da droni a guida autonoma gestiti dall’Intelligenza Artificiale, che provocano enormi perdite militari, ma anche civili. Un gruppo di soldati in una trincea in inverno in Russia o in Ucraina poteva nei decenni passati agevolmente pensare di non essere attaccato da altri soldati, che non potevano muovere i carri armati con la neve. Oggi non è più al sicuro perché può essere attaccato tramite droni guidati dall’Intelligenza Artificiale. E questo è solo un esempio. Sono sotto gli occhi di tutti i danni che stanno facendo gli Houthi con i droni guidati dall’Intelligenza Artificiale alle navi del Mar Rosso. Ovviamente, l’Intelligenza Artificiale, come si utilizza per attaccare, si impiega anche per difendersi. Tuttavia, bisogna ammettere che, in questa guerra tra sistemi di Intelligenza Artificiale che attaccano e altri sistemi di Intelligenza Artificiale che si difendono, a rimetterci siano soprattutto gli uomini, soldati e soprattutto civili. L’Intelligenza Artificiale, così come le altre scoperte tecnologiche del passato (energia nucleare, motori a scoppio, etc.), è neutra. Può fare cose strepitose o può diventare uno strumento devastante: sta a noi scegliere cosa vogliamo che diventi».