Se hai scelto di non accettare i cookie di profilazione e tracciamento, puoi aderire all’abbonamento "Consentless" a un costo molto accessibile, oppure scegliere un altro abbonamento per accedere ad ANSA.it.

Ti invitiamo a leggere le Condizioni Generali di Servizio, la Cookie Policy e l'Informativa Privacy.

Puoi leggere tutti i titoli di ANSA.it
e 10 contenuti ogni 30 giorni
a €16,99/anno

  • Servizio equivalente a quello accessibile prestando il consenso ai cookie di profilazione pubblicitaria e tracciamento
  • Durata annuale (senza rinnovo automatico)
  • Un pop-up ti avvertirà che hai raggiunto i contenuti consentiti in 30 giorni (potrai continuare a vedere tutti i titoli del sito, ma per aprire altri contenuti dovrai attendere il successivo periodo di 30 giorni)
  • Pubblicità presente ma non profilata o gestibile mediante il pannello delle preferenze
  • Iscrizione alle Newsletter tematiche curate dalle redazioni ANSA.


Per accedere senza limiti a tutti i contenuti di ANSA.it

Scegli il piano di abbonamento più adatto alle tue esigenze.

Quando in guerra sarà IA a decidere chi sopravvive

Quando in guerra sarà IA a decidere chi sopravvive

La DARPA avvia un programma militare per sviluppare algoritmi ai quali affidare il triage dei feriti in battaglia. Intanto l’intelligenza artificiale serve già a guidare droni e per l’infowar

Roma, 31 marzo 2022, 18:55

Redazione ANSA

ANSACheck

Quando in guerra sarà IA a decidere chi sopravvive © ANSA/EPA

Quando in guerra sarà IA a decidere chi sopravvive © ANSA/EPA
Quando in guerra sarà IA a decidere chi sopravvive © ANSA/EPA

Di Alessio Jacona*

Cosa succede se in guerra è l’IA a decidere chi vive e chi muore? Quello che ancora per il momento è ancora solo una riflessione teorica o un dilemma etico, presto potrebbe diventare un problema reale che riguarda ogni aspetto del conflitto: dagli attacchi sferrati contro il nemico, alla gestione dei feriti negli ospedali da campo.

 

L’IA in guerra

Quando si tratta di attaccare, l’intelligenza artificiale ha già un ruolo importante: le Forze Armate ucraine, ad esempio, stanno già utilizzando contro l'esercito russo il TB2 Bayraktar, un veicolo aereo tattico senza equipaggio (cioè un drone) di fabbricazione turca, che può trasportare missili anticarro, che atterra e decolla da solo grazie all'IA, ma che richiede ancora l'intervento umano per attivare le armi. Serve insomma qualcuno che prema il grilletto. Diverso è invece l’utilizzo del Lantset, un “drone kamikaze” russo progettato per attaccare carri armati, colonne di veicoli o concentrazioni di truppe: esso vola in autonomia finché non individua bersaglio pre-impostato e ci si schianta contro, esplodendo. Utilizzato in Siria, in pratica è un proiettile vagante ma intelligente, sempre in attesa di colpire.

 

Più in generale, l’intelligenza artificiale viene già usata in quella che chiamiamo guerra dell'informazione (o infowar), che ruota intorno all’uso delle notizie - vere, o più spesso false e create ad arte - per ottenere obiettivi militari strategici, orientare l’opinione pubblica, creare o incrinare consenso. Oggi la macchina della propaganda può infatti già contare ad esempio sull’utilizzo di reti generative avversarie (o GAN), un sottoinsieme dell'apprendimento automatico in cui due reti neurali antagoniste fondamentalmente combattono e si addestrano a vicenda fino ad arrivare a una conclusione. Il risultato sono fake news di testo, audio e video sempre più credibili, vere e proprie bombe mediatiche che esplodono nel panorama informativo per propagarsi in maniera virale, infettando le coscienze e offuscando il giudizio di tutti. Certo non sono pallottole, ma in un territorio di guerra possono contribuire ad aumentare il numero dei danni e delle vittime.

 

L’IA e il triage dei feriti in battaglia: prendere decisioni “In The Moment”

C’è poi un altro contesto, molto meno scontato, in cui l’IA potrebbe presto trovarsi a dover scegliere chi ha una possibilità di vivere e chi no: la gestione del triage per i feriti in battaglia. In guerra, il personale medico lavora in costante emergenza e accoglie i feriti compiendo continuamente scelte difficili, definendo le priorità di intervento per salvare vite in base a una serie di freddi parametri: gravità delle condizioni, stima della possibilità che il ferito ha di sopravvivere, disponibilità di mezzi e strumenti per intervenire e curarlo. Spesso i medici hanno solo pochi istanti per decidere chi soccorrere per primo, per fare appello alla propria esperienza e compiere scelte dalla responsabilità enorme, ed è per questo che ora la Defense Advanced Research Projects Agency, (o DARPA) il braccio dell'innovazione dell'esercito americano, vorrebbe affidare questa scelta all'intelligenza artificiale.

 

Il progetto si chiama “In The Moment Program”, verrà avviato a breve e mira a sviluppare una tecnologia basata su IA che prenda decisioni rapide in situazioni di stress utilizzando algoritmi e dati. L’idea di base è che la rimozione dei pregiudizi umani può salvare vite, e il progetto servirà a sviluppare e valutare decisori algoritmici affidabili per le operazioni mission-critical del Dipartimento della Difesa (DoD), affinché diventino capaci di sostituirsi all’uomo nel prendere decisioni che non hanno una sola, univoca risposta.

 

Il progetto ITM è solo agli inizi, e probabilmente richiederà tempo per dare risultati utilizzabili in guerra, ma già ora c’è chi esprime forti perplessità di natura etica per l’uso di algoritmi per fare scelte di vita o di morte. Specie considerando che le IA hanno già dimostrato di non essere immuni ai pregiudizi, che peraltro assorbono dagli esseri umani che le programmano e producono i dati su cui si addestrano.

 

*Giornalista, esperto di innovazione e curatore dell’Osservatorio Intelligenza Artificiale ANSA.it

Riproduzione riservata © Copyright ANSA

Da non perdere

Condividi

O utilizza