Vaccini covid, ChatGpt smonta fake news: “Può far crescere adesioni”

(Adnkronos) – E' stato esplorato in ogni veste: studente di medicina, dottore alle prese con quesiti diagnostici. Un team di ricercatori ora promuove ChatGpt come un potenziale alleato contro la disinformazione sui vaccini anti-Covid. Secondo le conclusioni di uno studio pubblicato sulla rivista 'Human Vaccines and Immunotherapeutics', il chatbot basato sull'intelligenza artificiale potrebbe contribuire ad aumentare la diffusione del vaccino sfatando i falsi miti sulla sua sicurezza. Gli autori hanno posto a ChatGpt le 50 domande più frequenti sul vaccino Covid, fra le quali c'erano anche quesiti basati su storie false come quella secondo cui l'iniezione scudo possa causare il Long Covid.  I risultati mostrano che ChatGpt ha ottenuto in media 9 punti su 10 in termini di precisione. Secondo lo studio, il resto delle volte il chatbot era stato comunque corretto, ma lasciava alcune lacune nelle informazioni fornite. Sulla base di questi risultati, gli esperti – un gruppo di ricerca attivo all'Instituto de Investigación Sanitaria (Idis), Hospital Clinico Universitario di Santiago de Compostela, in Spagna – affermano che lo strumento è una "fonte affidabile di informazioni non tecniche per il pubblico", soprattutto per le persone prive di conoscenze scientifiche specialistiche. Tuttavia, i risultati evidenziano anche alcune preoccupazioni riguardo a questa tecnologia, che cambia le sue risposte in determinate situazioni. "Nel complesso, ChatGpt costruisce una narrazione in linea con le prove scientifiche disponibili, sfatando i miti che circolano sui social media" sui vaccini, afferma l'autore principale Antonio Salas, professore nella facoltà di Medicina dell'università di Santiago de Compostela. "In tal modo potenzialmente facilita un aumento dell'adesione ai vaccini. ChatGpt può rilevare domande contraffatte e il linguaggio utilizzato è facilmente comprensibile al pubblico ma senza perdere il rigore scientifico. Riconosciamo che la versione attuale non può sostituire un esperto. Ma i risultati suggeriscono che potrebbe essere una fonte affidabile di informazioni per le persone". Una possibilità da sfruttare, secondo gli esperti che ricordano come nel 2019 l'Organizzazione mondiale della sanità abbia inserito l'esitanza nei confronti dei vaccini in generale tra le 10 principali minacce alla salute globale. In pandemia, osservano gli autori dello studio, la disinformazione diffusa tramite i social media ha contribuito ad alimentare la sfiducia nei confronti dell'immunizzazione anti-Covid. ChatGpt consente alle persone di avere conversazioni e interazioni simili a quelle umane con un assistente virtuale. La tecnologia è molto intuitiva e la rende accessibile a un'ampia popolazione. Ma molti governi sono preoccupati per il potenziale utilizzo fraudolento dello strumento in contesti educativi come le università. Lo studio è stato progettato per sfidare il chatbot ponendogli le domande più frequenti ricevute dal centro che collabora con l'Oms a Santiago. Tre temi: idee sbagliate sulla sicurezza, come il fatto che il vaccino causa il Long Covid; situazioni mediche in cui il vaccino è sicuro da usare, come nelle donne che allattano; controindicazioni reali, cioè una condizione di salute per la quale il vaccino non dovrebbe essere utilizzato e casi in cui i medici devono prendere precauzioni, ad esempio un paziente con infiammazione del muscolo cardiaco. Gli esperti hanno valutato le risposte di ChatGpt in termini di veridicità e precisione rispetto alle attuali prove scientifiche e alle raccomandazioni dell'Oms e di altre agenzie internazionali. I risultati hanno mostrato che alla maggior parte delle domande è stata data una risposta corretta con un punteggio medio di 9 su 10, definito come "eccellente" o "buono". Le risposte ai tre temi delle domande erano in media accurate all'85,5% o per il 14,5% accurate, ma con lacune nelle informazioni fornite dal chatbot. Salas fa però notare anche alcuni elementi: "ChatGpt fornisce risposte diverse se la domanda viene ripetuta 'con qualche secondo di ritardo'", per esempio. "Un'altra preoccupazione è che questo strumento di intelligenza artificiale, nella sua versione attuale, potrebbe anche essere addestrato a fornire risposte non in linea con le prove scientifiche. Si può 'torturare' il sistema in modo tale che fornisca la risposta desiderata. Ciò vale anche per altri contesti, diversi dai vaccini. Ad esempio, potrebbe essere possibile far sì che il chatbot si allinei a narrazioni assurde come la teoria della terra piatta o neghi il cambiamento climatico. In ogni caso, conclude, "è importante notare che queste risposte non sono il comportamento predefinito di ChatGpt". —salute/sanitawebinfo@adnkronos.com (Web Info)

Lascia un commento

Il tuo indirizzo email non sarà pubblicato. I campi obbligatori sono contrassegnati *