Se hai scelto di non accettare i cookie di profilazione e tracciamento, puoi aderire all’abbonamento "Consentless" a un costo molto accessibile, oppure scegliere un altro abbonamento per accedere ad ANSA.it.

Ti invitiamo a leggere le Condizioni Generali di Servizio, la Cookie Policy e l'Informativa Privacy.

Puoi leggere tutti i titoli di ANSA.it
e 10 contenuti ogni 30 giorni
a €16,99/anno

  • Servizio equivalente a quello accessibile prestando il consenso ai cookie di profilazione pubblicitaria e tracciamento
  • Durata annuale (senza rinnovo automatico)
  • Un pop-up ti avvertirà che hai raggiunto i contenuti consentiti in 30 giorni (potrai continuare a vedere tutti i titoli del sito, ma per aprire altri contenuti dovrai attendere il successivo periodo di 30 giorni)
  • Pubblicità presente ma non profilata o gestibile mediante il pannello delle preferenze
  • Iscrizione alle Newsletter tematiche curate dalle redazioni ANSA.


Per accedere senza limiti a tutti i contenuti di ANSA.it

Scegli il piano di abbonamento più adatto alle tue esigenze.

Hi-tech
  1. ANSA.it
  2. Tecnologia
  3. Hi-tech
  4. Informazione fa conti con ChatGpt, rischio fake news 

Informazione fa conti con ChatGpt, rischio fake news 

Da testata Cnet stop utilizzo. L'AI supera esame Università Usa 

La crescita di popolarità di strumenti di Intelligenza artificiale come ChatGpt, il software di cui si parla da settimane e su cui Microsft sta investendo pesantemente, sta allargando il dibattito anche al mondo dell'informazione. Questa tecnologia in alcuni casi può semplificare alcuni compiti, in altri può accrescere il rischio di fake news. I ricercatori di Newsguard Technologies, hanno messo lo strumento alla prova su campione di 100 bufale già note: per 80 di queste ChatGpt ha generato narrazioni false. Intanto, il sito Cnet ha interrotto l'utilizzo dell'intelligenza artificiale per gli articoli. Mentre in una università Usa ChatGpt ha superato un esame di diritto, a dimostrazione di quanto questi strumenti offrano possibilità ancora tutte da capire e gestire.

I ricercatori di Newsguard Technologies hanno provato a costruire teorie cospirazioniste affidandosi all'intelligenza artificiale (Ai). Nell'80% dei casi ChatGpt ha generato affermazioni false e fuorvianti su argomenti di attualità tra cui il Covid-19 e l'Ucraina. "I risultati - spiegano - confermano i timori e le preoccupazioni espresse dalla stessa OpenAi (l'azienda che ha creato ChatGpt, ndr) sulle modalità con cui lo strumento potrebbe essere utilizzato se finisse nelle mani sbagliate. Agli occhi di chi non abbia familiarità con gli argomenti trattati in questo report, i risultati potrebbero facilmente sembrare legittimi e persino autorevoli". NewsGuard ha però verificato che ChatGpt "dispone di misure di salvaguardia per impedire la diffusione di alcuni esempi di disinformazione. Per alcune bufale, ci sono voluti ben cinque tentativi per portare il chatbot a fornire informazioni errate".

Diverse redazioni utilizzano da tempo l'automazione. L'Associated Press usa l'intelligenza artificiale per produrre storie sportive basate su dati e modelli. Dow Jones, Bloomberg e Reuters per semplificare la copertura di notizie su utili di aziende e mercato azionario. Ma ora che l'intelligenza artificiale è diventata così avanzata e accessibile - osserva il sito Axios - è diventato più difficile per le redazioni tracciare il confine tra l'uso dell'AI e l'eccessivo affidarsi a questa tecnologia. Il sito di tencologia Cnet, ad esempio, qualche giorno fa ha annunciato che metteva in pausa gli esperimenti con l'Intelligenza artificiale dopo essere stata accusata di scarsa accuratezza in alcuni articoli scritti proprio con questa tecnologia. Nel frattempo, ChatGpt viene messo alla prova in diversi campi. In una facoltà di giurisprudenza statunitense ha passato gli esami di diritto e i risultati sono stati abbastanza buoni, tanto che alcuni professori hanno affermato che questo sistema potrebbe portare a imbrogli diffusi e persino segnare la fine dei tradizionali metodi di insegnamento.

"Bisogna essere in grado di comprendere le complessità del mondo in cui ci stiamo addentrando: se usata bene l'AI può fare cose meravigliose, ma se usata in maniera scorretta o truffaldina può generare grandi difficoltà", sottolinea Gudo Di Fraia, prorettore dell'Università Iulm di Milano, che proprio oggi ha inaugurato un nuovo laboratorio di Intelligenza artificiale.

      RIPRODUZIONE RISERVATA © Copyright ANSA

      Video ANSA



      Modifica consenso Cookie