/ricerca/ansait/search.shtml?tag=
Mostra meno

Se hai scelto di non accettare i cookie di profilazione e tracciamento, puoi aderire all’abbonamento "Consentless" a un costo molto accessibile, oppure scegliere un altro abbonamento per accedere ad ANSA.it.

Ti invitiamo a leggere le Condizioni Generali di Servizio, la Cookie Policy e l'Informativa Privacy.

Puoi leggere tutti i titoli di ANSA.it
e 10 contenuti ogni 30 giorni
a €16,99/anno

  • Servizio equivalente a quello accessibile prestando il consenso ai cookie di profilazione pubblicitaria e tracciamento
  • Durata annuale (senza rinnovo automatico)
  • Un pop-up ti avvertirà che hai raggiunto i contenuti consentiti in 30 giorni (potrai continuare a vedere tutti i titoli del sito, ma per aprire altri contenuti dovrai attendere il successivo periodo di 30 giorni)
  • Pubblicità presente ma non profilata o gestibile mediante il pannello delle preferenze
  • Iscrizione alle Newsletter tematiche curate dalle redazioni ANSA.


Per accedere senza limiti a tutti i contenuti di ANSA.it

Scegli il piano di abbonamento più adatto alle tue esigenze.

Un algoritmo pulirà l'IA dai pregiudizi di genere

Un algoritmo pulirà l'IA dai pregiudizi di genere

Un team italiano ha creato uno strumento anti-stereotipi

ROMA, 30 gennaio 2024, 19:53

Redazione ANSA

ANSACheck

- RIPRODUZIONE RISERVATA

-     RIPRODUZIONE RISERVATA
- RIPRODUZIONE RISERVATA

 L'intelligenza artificiale rischia di essere un nuovo motore di propagazione della discriminazione di genere e di quel sessismo linguistico che permea la comunicazione, anche quella istituzionale. Lo stesso meccanismo di "alimentazione" degli algoritmi che generano i prodotti generativi di contenuti è, infatti, per sua natura veicolo di riproduzione e perpetuazione di quelli stereotipi che permeano la società e che, anche in modo inconsapevole, finiscono così per moltiplicare gli effetti di una rappresentazione sessista della società.
    Arriva però uno strumento che sarà in grado di intervenire per "correggere" tutte quelle distorsioni linguistiche che sono veicolo di discriminazione.
    E' un algoritmo che lavora su una grande quantità di testi di matrice amministrativa per "ripulirli" da ogni termine che abbia un carattere discriminatorio.
    Il progetto, un Prin, un progetto cioè di Rilevante Interesse Nazionale, finanziato dal Ministero dell'Università e della Ricerca, a cui lavorano tre università Italiane, il Politecnico di Torino, l'Università di Bologna e l'Università di Tor Vergata aveva come obiettivo la costruzione un modello che interviene sui 'corpora testuali' che servono a testare gli algoritmi, proprio per modificarli nel senso dell'inclusione.
    Il progetto, che si chiama Empowering Multilingual Inclusive Communication, E-MIMIC, "cerca di riformulare il testo amministrativo in un modo non discriminatorio: questo vuol dire che il sistema permette all'utente finale di individuare quelli che sono i segmenti della frase che possono creare la discriminazione, e non solo di genere ma anche, ad esempio, del cosiddetto 'ageismo', quella forma di discriminazione in base all'età, o nei confronti delle persone disabili, o ipovedenti.
    Poi, una volta individuati i segmenti erronei, in una seconda fase propone un nuovo testo che elimina queste discriminazioni" spiega Rachele Raus, francesista dell'Università di Bologna che lavora al progetto. L'utente poi può scegliere se intervenire o meno ma lo fa dopo aver potuto acquisire una consapevolezza rispetto al linguaggio acquisito. "Il nostro team, con il Politecnico di Torino, ha in sostanza creato delle reti neurali che sono in grado di fare nella prima fase un processo di encoding, un classificatore in grado di individuare appunto gli strumenti non inclusivi e, nella seconda fase di decoding, di generare un testo nuovo, pulito" spiega la professoressa Raus.
   
   

Riproduzione riservata © Copyright ANSA

Da non perdere

Condividi

O utilizza