Introduzione
Uno studio condotto da 22 organizzazioni di media pubblici internazionali, tra cui la BBC e DW, ha rivelato un dato inquietante: i principali chatbot AI distorcono le notizie nel 45% dei casi, indipendentemente dalla lingua o dal territorio. ChatGPT, Copilot di Microsoft, Gemini di Google e Perplexity AI sono stati valutati secondo criteri rigorosi di accuratezza, sourcing e capacità di distinguere fatti da opinioni, con risultati che sollevano seri dubbi sulla loro affidabilità come fonte di informazione.
Lo studio: metodologia e risultati
Il più grande progetto di ricerca di questo tipo a oggi ha coinvolto giornalisti da 18 paesi che hanno sottoposto ai quattro chatbot domande comuni su notizie attuali, come "Qual è l'accordo sui minerali in Ucraina?" o "Trump può candidarsi a un terzo mandato?". I ricercatori hanno valutato le risposte senza sapere quale assistente le aveva generate, confrontandole con la loro expertise professionale e le fonti verificate.
I numeri sono preoccupanti:
- 45% delle risposte conteneva almeno un problema significativo
- 31% presentava seri errori di sourcing
- 20% conteneva errori fattuali gravi
Per DW, il 53% delle risposte aveva problemi significativi, con il 29% che mostrava specifici errori di accuratezza.
Errori concreti e conseguenze
Lo studio ha documentato errori concreti e gravi. Un chatbot ha indicato Olaf Scholz come cancelliere tedesco, anche se Friedrich Merz era stato nominato un mese prima. Un altro ha nominato Jens Stoltenberg come segretario generale della NATO dopo che Mark Rutte aveva già assunto l'incarico. Questi non sono errori marginali: riflettono una distorsione sistematica della realtà.
"Questa ricerca dimostra conclusivamente che questi errori non sono incidenti isolati. Sono sistemici, transfrontalieri e multilingui, e riteniamo che ciò minacci la fiducia pubblica."
Jean Philip De Tender, vice direttore generale dell'Unione europea delle trasmissioni (EBU)
Performance dei singoli chatbot
Gemini di Google si è rivelato il peggiore tra i quattro, con il 72% delle sue risposte che presentava problemi significativi di sourcing. Tuttavia, nessuno dei quattro assistenti è uscito indenne dalla valutazione:
- Gemini: prestazioni peggiori nel sourcing
- Copilot: tra i peggiori sia nello studio BBC che in questo
- ChatGPT: ha mostrato qualche lieve miglioramento
- Perplexity AI: ha registrato risultati simili agli altri
Rispetto allo studio della BBC di febbraio 2025, i dati mostrano solo minori miglioramenti, ma il livello di errore rimane elevato e preoccupante.
Il contesto: quanti usano chatbot per le notizie?
L'impatto potenziale è significativo. Secondo il Digital News Report 2025 di Reuters Institute, il 7% dei consumatori di notizie online utilizza i chatbot AI per ottenere informazioni, una percentuale che sale al 15% tra gli under 25. Con la diffusione sempre più rapida di nuovi modelli di AI, il rischio di una diffusione capillare di disinformazione aumenta costantemente.
Le conseguenze per la democrazia e la fiducia pubblica
I ricercatori sottolineano che la distorsione sistematica delle notizie da parte dei chatbot AI rappresenta una minaccia alla fiducia pubblica e alla democrazia stessa. Quando le persone non sanno più cosa credere, finiscono per non fidarsi di nulla, il che può scoraggiare la partecipazione democratica e alimentare il caos informativo.
Azioni richieste: governo, regolatori e aziende
Le organizzazioni di broadcaster e media dietro lo studio chiedono azioni concrete:
- Governi e regolatori devono applicare leggi sulla integrità dell'informazione e i servizi digitali
- Monitoraggio indipendente dei chatbot AI deve diventare prioritario
- Responsabilità delle aziende di AI nel garantire che fatti corretti escano dai loro sistemi
L'EBU ha lanciato una campagna internazionale chiamata "Facts In: Facts Out", chiedendo alle aziende di IA di assumersi maggiore responsabilità nel modo in cui i loro prodotti gestiscono e ridistribuiscono le notizie. Il messaggio è semplice: se i fatti entrano, i fatti devono uscire.
Conclusione
Lo studio rivela una verità scomoda: i chatbot AI più utilizzati al mondo non sono ancora affidabili come fonti di notizie. Con il 45% delle risposte che contiene problemi significativi, e una percentuale crescente di persone che si rivolge a questi strumenti per ottenere informazioni, il rischio per l'integrità dell'informazione è reale e urgente. Le prossime mosse di regolatori, governi e aziende tech saranno cruciali per evitare una crisi di fiducia pubblica.
FAQ
Cos'è lo studio sulla distorsione delle notizie da parte dei chatbot AI?
È una ricerca condotta da 22 organizzazioni di media pubblici internazionali che ha valutato come ChatGPT, Copilot, Gemini e Perplexity AI rispondono a domande su notizie attuali, misurando accuratezza, sourcing e capacità di distinguere fatti da opinioni. Lo studio ha scoperto che il 45% delle risposte contiene almeno un problema significativo.
Quali sono i dati principali dello studio sui chatbot AI e le notizie?
Il 45% delle risposte AI ha problemi significativi, il 31% presenta errori di sourcing e il 20% contiene errori fattuali gravi. Gemini è risultato il peggiore con il 72% di risposte con problemi di sourcing.
Quali chatbot AI sono stati testati nello studio?
Lo studio ha valutato quattro principali assistenti: ChatGPT di OpenAI, Copilot di Microsoft, Gemini di Google e Perplexity AI. Tutti hanno mostrato problemi significativi nella gestione delle notizie.
Quante persone usano i chatbot AI per leggere notizie?
Secondo il Digital News Report 2025 di Reuters, il 7% dei consumatori online di notizie utilizza i chatbot AI, percentuale che sale al 15% tra gli under 25, evidenziando il rischio crescente di diffusione di disinformazione tra i giovani.
Come i chatbot AI distorcono le notizie?
I chatbot AI distorcono le notizie attraverso errori di sourcing, attribuzione errata di fatti, mancanza di contesto e confusione tra fatti e opinioni. Lo studio ha documentato esempi come l'indicazione di cancellieri o segretari generali non corretti.
Cosa chiedono i broadcaster e i media allo studio?
Le organizzazioni chiedono ai governi di applicare leggi sull'integrità dell'informazione, un monitoraggio indipendente continuo e maggiore responsabilità delle aziende AI attraverso la campagna "Facts In: Facts Out".
Perché la distorsione delle notizie da parte dei chatbot AI minaccia la democrazia?
Quando le persone non sanno più cosa credere, finiscono per non fidarsi di nulla, scoraggiando la partecipazione democratica e alimentando il caos informativo, con conseguenze gravi sulla stabilità sociale.