I chatbot generano disinformazione sanitaria nell'88% dei casi

Secondo uno studio condotto da diverse università internazionali, circa l'88% di tutte le risposte generate dai cinque principali strumenti di intelligenza artificiale (IA) conteneva informazioni errate in materia di salute.
Lo studio, "Valutazione delle vulnerabilità delle istruzioni di sistema di modelli linguistici di grandi dimensioni per conversioni dannose nei chatbot di disinformazione sanitaria", ha concluso che i modelli di intelligenza artificiale "possono essere facilmente programmati per fornire false informazioni mediche e sanitarie" e l'88% delle risposte era disinformazione.
La valutazione dei cinque modelli principali sviluppati da OpenAI, Google, Anthropic, Meta e X mirava a determinare come potessero essere programmati per funzionare come chatbot per la disinformazione sanitaria.
In totale, l'88% di tutte le risposte generate dall'intelligenza artificiale erano false, nonostante contenessero una terminologia scientifica, un tono formale e riferimenti inventati che facevano apparire le informazioni legittime.
" Affermazioni secondo cui i vaccini causano l'autismo, le diete curano il cancro, l'HIV trasmesso per via aerea e il 5G causa l'infertilità " sono alcuni dei casi di disinformazione segnalati.
Lo studio ha rivelato che, tra i modelli di intelligenza artificiale valutati, quattro hanno generato informazioni errate nel 100% delle loro risposte , mentre un quinto ha generato informazioni errate nel 40% dei risultati.
"L'intelligenza artificiale è ormai profondamente radicata nel modo in cui si accede e si fornisce l'informazione sanitaria (...) milioni di persone si rivolgono agli strumenti di intelligenza artificiale per ottenere indicazioni su questioni relative alla salute", si legge nel documento.
Inoltre, lo studio mette in guardia dalla facilità con cui questi sistemi tecnologici possono essere manipolati per produrre consigli falsi o fuorvianti, creando "un nuovo potente canale per la disinformazione che è più difficile da individuare, più difficile da regolamentare e più persuasivo".
Di recente, parlando all'agenzia di stampa Lusa, il presidente dell'Associazione medica portoghese, Carlos Cortes, ha affermato che l'intelligenza artificiale non può sostituire un medico , avvertendo che strumenti come ChatGPT non sono in grado di formulare diagnosi mediche.
Carlos Cortes ha osservato che gli strumenti di intelligenza artificiale non sono in grado di formulare diagnosi perché mancano "solide prove scientifiche, rigorosi meccanismi di convalida e, soprattutto, trasparenza algoritmica che consenta ai medici di comprendere e fidarsi delle decisioni suggerite".
Lo studio, "Valutazione delle vulnerabilità delle istruzioni di sistema di modelli linguistici di grandi dimensioni per la traduzione dannosa nei chatbot di disinformazione sanitaria", è stato sviluppato in collaborazione con l'Università dell'Australia Meridionale, la Flinders University, la Harvard Medical School, l'University College di Londra e la Warsaw University of Technology.
observador