(ANSA) - TRIESTE, 24 MAG - "Il pericolo più grosso che potrebbe portare all'estinzione umana sul pianeta è una guerra, una guerra nucleare. Una opzione che quest'anno diventa sempre più possibile e che potrebbe portare a un disastro completo nell'emisfero Nord con successivamente conseguenze difficili nell'emisfero Sud". Ne è convinto Giorgio Parisi, Premio Nobel per la fisica, rispondendo a una domanda sui rischi per il genere umano. Parisi è intervenuto nel corso di un incontro sul tema "Fisica: cosa resta da scoprire", con un altro Premio Nobel, il fisico statunitense David Gross, in video collegamento dagli Stati Uniti, organizzato dalla Sissa, Scuola internazionale di sturi superiori avanzati, di Trieste, e dall'ICTP l'Istituto di fisica teorica Abdus Salam.
"Sono fondamentalmente un ottimista - ha aggiunto Gross - quel che penso è che la nostra specie sia tanto saggia e intelligente da riuscire a evitare la fine". Piuttosto, Gross ha invitato a "chiedersi perché non sono state individuate finora altre specie viventi? Anche Fermi se lo era chiesto. Forse quando si raggiunge un certo grado di tecnologia, ci si uccide.
Spero sinceramente che non accada". Gross ha anche auspicato che il genere umano si prenda più cura della specie e dell' habitat nel quale vive: "Alla Terra non interessa nulla di noi, i cambiamenti introdotti dall'uomo sul nostro pianeta non sono così significativi. Noi per vivere abbiamo bisogno di ossigeno, di uno stretto range di temperatura e possiamo vivere in pochi posti della Terra". Quindi, "dobbiamo prenderci cura di questo, che questo ambiente venga conservato per la nostra specie".
Parisi dal canto suo, più che dal climate change, è preoccupato dalla scarsità crescente di risorse e dai "sistema d'armi letali autonomi. Non è etico che macchine autonomamente decidano se è un obiettivo è militare o civile - ha specificato - La decisione di uccidere un essere umano deve deciderlo un altro essere, non una macchina. Ci sono proposte per rendere illegali questi sistemi d'armi letali autonome, così come lo sono le armi biologiche o chimiche, ma non siamo ancora arrivati al punto di firmare questa convenzione". Bisogna "evitare che un sistema d'armi autonomo intelligente uccidono a suo piacimento esseri umani". (ANSA).