
IA e Chat Gpt, prime linee guida da oncologi Ue contro i rischi

Obiettivo aiutare pazienti e medici a uso responsabile e sicuro
Arrivano le prime linee guida sull'uso sicuro dei Large language models (Llm) come Chat Gpt nella pratica oncologica. Le linee guida sono state elaborate dalla Società europea di oncologia medica (Esmo) e presentate al congresso Esmo in corso a Berlino con la partecipazione di oltre 35mila professionisti da tutto il mondo. L'obiettivo è aiutare pazienti, medici e istituzioni ad adottare in modo responsabile, sicuro ed efficace gli strumenti linguistici dell'IA. Le linee guida, che comprendono 23 raccomandazioni, sono pubblicate su Annals of Oncology e riconoscono che le opportunità e i rischi variano a seconda dell'utente, che si tratti di pazienti, medici o istituzioni, e pertanto le raccomandazioni sono di tre tipi. La prima categoria riguarda le applicazioni rivolte ai pazienti, come i chatbot per la conoscenza e il supporto sui sintomi, che, si legge, "dovrebbero integrare l'assistenza clinica e operare all'interno di percorsi supervisionati con una solida protezione dei dati". La seconda categoria comprende strumenti rivolti ai professionisti sanitari, come il supporto decisionale, la documentazione e la traduzione, che richiedono una "convalida formale, limitazioni trasparenti e un'esplicita responsabilità umana per le decisioni cliniche". La terza categoria riguarda invece i sistemi istituzionali di base integrati con cartelle cliniche elettroniche per attività quali l'estrazione di dati, i riepiloghi automatizzati e il matching con gli studi clinici; questi sistemi richiedono "test, monitoraggio continuo per errori e variazioni delle prestazioni, governance e rivalidazione in caso di modifiche dei processi o delle fonti di dati".
I.Do--SG