I chatbot AI diffondono fake news nel 35% dei casi: l’analisi di NewsGuard e come difendersi

L’uso dei chatbot basati su intelligenza artificiale è in forte crescita.

Strumenti come ChatGPT e Gemini vengono utilizzati quotidianamente per scrivere articoli, fare ricerche e rispondere a domande complesse.

Tuttavia, secondo un’analisi di NewsGuard, i chatbot riportano fake news nel 35% dei casi, un dato preoccupante e in aumento rispetto agli anni precedenti.

Lo studio ha analizzato dieci tra i principali chatbot AI, sottoponendoli a domande su cronaca, attualità e temi controversi.

I risultati mostrano che questi strumenti possono diffondere informazioni false o imprecise, poiché i modelli generativi non distinguono tra fonti affidabili e contenuti fuorvianti.

L’integrazione con ricerche web in tempo reale, sebbene aumenti la capacità di rispondere, può amplificare il rischio di disinformazione.

Le cause principali delle fake news diffuse dai chatbot sono l’utilizzo di dati non verificati durante l’addestramento e la natura predittiva dei modelli, che privilegia la coerenza e la fluidità del testo rispetto all’accuratezza dei contenuti.

In pratica, i chatbot generano testi convincenti ma non garantiscono la veridicità delle informazioni.

Per difendersi dalla disinformazione generata dall’intelligenza artificiale è fondamentale adottare un approccio critico: verificare le informazioni su fonti affidabili, confrontare diverse versioni dei fatti, diffidare di contenuti sensazionalistici e utilizzare strumenti di fact-checking.

Conclusioni

I chatbot AI possono essere strumenti utili e innovativi, ma non sostituiscono la verifica umana. Sapere che riportano fake news in oltre un terzo dei casi deve spingere gli utenti a utilizzarli con attenzione e consapevolezza.

Solo combinando l’intelligenza artificiale con il controllo delle fonti e la consapevolezza digitale è possibile sfruttarne i vantaggi riducendo il rischio di disinformazione.