title§§ Ia e sanità: cosa succede se al posto di chiedere al medico si consulta l'Intelligenza artificiale? I rischi dei contenuti falsi che appaiono plausibili | Corriere.it link§§ http://gimbe.telpress.it/news/2025/09/13/2025091303161006433.PDF description§§
Estratto da pag. 1 di "corriere.it" del 13 Sep 2025
Un signore di Washington ha consultato ChatGpt per avere un''alternativa «più salutare» al sale ed è finito ricoverato in psichiatria: un caso paradigmatico di un''abitudine sempre più diffusa. L''analisi degli esperti
pubDate§§ 2025-09-13T04:53:00+00:00 arguments§§ http://gimbe.telpress.it/news/2025/09/13/2025091303161006433.PDF category§§ GIMBE subcategory§§ {'domain': ''} source§§ {'href': 'http://gimbe.telpress.it/news/2025/09/13/2025091303161006433.PDF', 'title': 'corriere.it'} tp:url§§ https://www.corriere.it/salute/ehealth/25_settembre_13/ia-e-sanita-cosa-succede-se-al-posto-di-chiedere-al-medico-si-consulta-l-intelligenza-artificiale-i-rischi-dei-contenuti-falsi-c210d095-1119-41cf-bfcc-46a793affxlk.shtml tp:attach_fn§§ http://gimbe.telpress.it/news/2025/09/13/2025091303161006433.PDF tp:ocr§§ Charlie Kirk, l'annuncio di Trump: «Preso il presunto killer, spero che gli diano la pena di morte. Convinto a consegnarsi dal padre»Salva questo articolo e leggilo quando vuoi. Il servizio è dedicato agli utenti registrati.Trovi tutti gli articoli salvati nella tua area personale nella sezione preferiti e sull'app Corriere News.Un signore di Washington ha consultato ChatGpt per avere un'alternativa «più salutare» al sale ed è finito ricoverato in psichiatria: un caso paradigmatico di un'abitudine sempre più diffusa. L'analisi degli esperti(Getty Images) Chissà cosa sarà passato per la mente del sessantenne di Washington che, nel tentativo di sostituire il sale da cucina con unâ??alternativa «più salutare», si è affidato a ChatGpt e, seguendo il consiglio del programma, ha assunto bromuro di sodio. Una scelta che gli è costata un ricovero in psichiatria a causa di una rarissima intossicazione, come riportato in un recente studio su Annals of Internal Medicine.In Italia, episodi altrettanto bizzarri avvengono allâ??ordine del giorno, seppur in forme diverse. «Qualche tempo fa un paziente mi chiese il chinino, senza possedere alcuna ricetta, per curare il Covid», racconta Giacomo Pisano, farmacista e divulgatore (@il_socialmente_farmacista). Il filo conduttore è sempre lo stesso: una crescente creatività nellâ??autodiagnosi e nella ricerca di rimedi fai-da-te. Dopo la pandemia il fenomeno è aumentato. Non solo. «I pazienti hanno cominciato a spiegarmi perché preferivano un prodotto più di un altro», prosegue Pisano. Argomentazioni fin troppo perfette, con un lessico quasi da manuale. Sembrava che dietro ogni richiesta non ci fosse una persona, ma unâ??intelligenza artificiale (Ia). Che ruolo sta giocando questa tecnologia nella medicina? E, soprattutto, resa accessibile all'utente medio, può davvero sostituire i dottori?«Con il web 2.0 la logica è diversa rispetto a quella del più statico web 1.0: non si tratta solo di consultare informazioni, ma di produrle e condividerle. Il paziente 2.0 partecipa a forum, blog e social network, entrando in comunità digitali dove i saperi esperti si mescolano con quelli profani. Non si limita a ricevere, ma diventa produttore e consumatore di conoscenza (prosumer), un attore collettivo capace di negoziare con lâ??autorità medica», spiegano Lidia Lombi e Alessandro Lovari, professori associati di Sociologia rispettivamente allâ??Università Cattolica del Sacro Cuore di Milano e allâ??Università di Cagliari.Mischiare i ruoli è rischioso: talora i pazienti, capaci di usare un motore di ricerca e schiudersi così a una miniera di saperi, possono ritenere di conoscere tutto di medicina, incappando nelle fake news. L'Ia ha acuito la percezione di onniscienza. «Oggi, la logica della query, tipica di Google, lascia spazio a quella del prompt, basata sul dialogo. Lâ??utente non cerca più solo informazioni, ma conversa con un sistema che elabora risposte personalizzate». Il problema è che la qualità di questi scambi non si fonda su conoscenze umane consolidate, come magari potevano essere i forum (validati da autori, lettori e moderatori), quanto su un intricato sistema statistico. «Servizi come ChatGPT rappresentano dei modelli linguistici di grandi dimensioni, Llm (dall'inglese Large Language Model). Generano risposte prevedendo la parola più plausibile, senza verificare in modo diretto la veridicità di quanto riportato. Possono quindi produrre contenuti convincenti, ma non necessariamente accurati», osserva Walter Quattrociocchi, professore ordinario di Data Science allâ??Università Sapienza di Roma e direttore del Centro di Scienza dei Dati e Complessità per la Società (Cdcs).  Eppure, gli annunci su modelli Ia con capacità diagnostiche avanzate non accennano a diminuire e gli investimenti miliardari a lievitare. Microsoft, per esempio, ha dichiarato di aver predisposto una Ia a uso medico in grado di competere coi migliori luminari. «Gli utenti comuni tendono a sovrastimarne lâ??affidabilità . In medicina ciò può portare a diagnosi errate, interpretazioni sbagliate di analisi del sangue o pratiche di automedicazione rischiose», aggiunge Quattrociocchi. Unâ??altra questione spinosa riguarda il comportamento dellâ??Ia: se una persona ipocondriaca è convinta di avere un tumore e guida ChatGpt verso quella diagnosi, il modello finirà con ogni probabilità per assecondarla. «In letteratura si parla di sycophancy: lâ??Ia adatta le risposte alle aspettative dellâ??utente, creando unâ??illusione di conoscenza». Il rischio è che un contenuto falso, agli occhi di un inesperto, possa apparire plausibile. «Questo fenomeno â?? che chiamo epistemia (nel solco della più celebre infodemia) â?? crea un corto circuito tra credibilità percepita e affidabilità reale».Gli Llm hanno un lato oscuro da prendere in esame: l'addestramento. Affinché possano funzionare, è fondamentale venga data loro una mastodontica quantità di dati. Ma da dove vengono attinti? Quando chiediamo all'intelligenza artificiale gli effetti avversi di un farmaco, per esempio, le casistiche fornite a quale popolazione si riferiscono? «I bias nei dataset di addestramento possono amplificare disuguaglianze sociali e culturali», notano Lombi e Lovari. Come se non bastasse, a marzo, la rivista The Atlantic ha rivelato che uno degli Llm più usati del momento è stato alimentato con le pubblicazioni piratate di migliaia di scienziati ignari di ciò. La maggioranza di questi articoli è oramai obsoleta.Un ulteriore nodo critico evidenziato dai ricercatori riguarda la riservatezza: quando condividiamo con un Llm dati sanitari sensibili, come uno stato di malattia, chi ci garantisce che queste informazioni non possano un giorno essere accessibili a un datore di lavoro? Il farmacista Giacomo Pisano invita a non demonizzare i pazienti e a osservare la dinamica in un contesto più ampio: secondo i dati di Fondazione Gimbe, in Italia mancano oltre 5.500 medici di famiglia, e il numero è destinato a crescere. La sanità privata dilaga e non tutti hanno accesso alle cure. «Molte persone sono abbandonate: i medici di Medicina generale sono difficili da raggiungere e la medicina territoriale è insufficiente».Ã? proprio in questo vuoto che Chatgbt e simili trovano terreno fertile: ora fornendo un aiuto, ora dando indicazioni errate. La medicina, però, è qualcos'altro: è un'arte fatta di contatto fisico e di irrinunciabili interazioni dialogiche. La visita è intesa ed assunzione di responsabilità . Come ricorda Pisano, si tratta di aspetti non derogabili nel processo di cura. Nel dubbio, meglio evitare di chiedere a ChatGpt consigli sul sale.AI in corsia: il paziente deve sapere quando viene usata? E come? Cosa chiedere al medicodi Ruggiero CorcellaIntelligenza artificiale e sanità digitale: «Un Patto globale con nuove regole tra Oms e Big Tech»di Ruggiero CorcellaDiabete, così l'intelligenza artificiale lo svela prima che arrivi (leggendo i segnali nascosti nel sangue)di Ruggiero CorcellaL'intelligenza artificiale aiuta i medici a «predire»: dal tumore al diabete, ecco come curarli megliodi Ruggiero CorcellaIntelligenza artificiale in medicina: l'AI è capace di fare una diagnosi (anche meglio degli umani), ma non sa ancora farsi capiredi Ruggiero Corcella13 settembre 2025© RIPRODUZIONE RISERVATAXENOTRAPIANTO RENEUn contatto veloce con igiornalisti della redazioneSalute del Corriere della SeraPer usufruire del servizio di domande e risposte de ilMedicoRisponde è necessario essere registrati al sito Corriere.it o a un altro dei siti di RCS Mediagroup.Non ricordi le credenziali?Recupera il tuo accountTi informiamo che con il tuo piano puoi leggere Corriere.it su 1 dispositivo alla voltaQuesto messaggio verrà visualizzato su un altro dispositivo/accesso e tu potrai continuare a leggere le notizie da qui. L'altro dispos itivo/accesso rimarrà collegato a questo account. Puoi accedere con il tuo account su tutti i dispositivi che desideri, ma utilizzandoli in momenti diversi secondo il tuo piano di abbonamento.Perché tu o qualcun altro sta leggendo Corriere.it con questo account su più di due dispositivi/accessi. Il tuo attuale abbonamento permette di leggere Corriere.it solo su due dispositivi in contemporanea (computer, telefono o tablet).Se sei abbonato con un altro account accedi con le tue credenziali. Se siete in 2 o più che utilizzano lo stesso abbonamento, passa all'offerta Family e condividi l'abbonamento con altre due persone. Altrimenti, fai clic su "Continua a leggere qui" e assicurati di essere l'unica persona che visualizza Corriere.it con questo account.Ti consigliamo di cambiare la tua password cliccando qui tp:writer§§ REDAZIONE guid§§ http://gimbe.telpress.it/news/2025/09/13/2025091303161006433.PDF §---§