Notice: Undefined index: privacy in /var/www/nuevo.assediobianco.ch/htdocs/includes/top/privacy_advisor.php on line 1

Questo sito utilizza cookies tecnici (Google Analytics) per l'analisi del traffico, senza scopi commerciali; proseguendo la navigazione ci si dichiara implicitamente d'accordo all'uso dei medesimi Ok, accetto

Quando le diagnosi arrivano
dall’intelligenza artificiale di ChatGPT

Da molti anni un numero crescente di programmi presenti in rete e di app per cellulari risponde a interrogativi medici, supplendo così alla carenza di professionisti, fornendo un’alternativa a chi ha sfiducia nella medicina ufficiale, e permettendo anche di risparmiare il costo di una visita. Lo scopo dichiarato è quello di aiutare nell’autodiagnosi e indirizzare verso un primo triage, aiutando a capire quando è il caso di recarsi da un medico e quando invece ci si può curare da soli.
Ma troppo spesso queste soluzioni, generate semplicemente inserendo schemi semplificati (a un certo sintomo corrisponde una certa malattia, e per quest’ultima si devono eseguire certi accertamenti, o assumere certe terapie), generano errori anche gravi, fraintendimenti, timori e speranze infondati, soprattutto se chi li mette in rete non ha le conoscenze necessarie, o magari ha solo lo scopo di commercializzare qualcosa.
Per questo, nel tempo si sono moltiplicati gli appelli delle società scientifiche e anche di governi come quello belga affinché le persone, se non affiancate da qualcuno che ha competenze specifiche, non consultino mai quello che è stato genericamente chiamato Dr. Google

Ora, però, con il sistema di intelligenza artificiale (AI) chiamato ChatGPT, lanciato a fine novembre, e con analoghi programmi che saranno messi a disposizione nei prossimi mesi (come quello annunciato da Google) o quello, specifico, chiamato Anthropic, tutto potrebbe cambiare. Perché con questi programmi l’AI fa un passo ulteriore, cioè non si limita a una deduzione binaria sintomo-malattia, ma costruisce un autentico ragionamento clinico, per quanto primitivo, e in alcuni casi arriva laddove l’intelligenza o l’occhio umano non possono giungere, integrando e migliorando le risposte di questi ultimi. Il vero ruolo che oggi hanno i programmi di AI, già introdotti da molti anni in alcuni settori specifici come l’interpretazione delle immagini radiologiche – per esempio nella lettura delle mammografie, soprattutto di quelle più dubbie – è infatti quello di supporto al medico, nel tentativo di ridurre gli errori e di fornire allo specialista elementi di riflessione sulle proprie conclusioni. E ce n’è bisogno, se è vera la stima secondo la quale, ancora oggi, il 10-15% delle diagnosi è sbagliato.

Proprio nell’ambito delle diagnosi, i medici e ricercatori di uno centri di studi sulla salute pubblica più importanti del mondo, la T.H. Chan School of Public Health dell’università di Harvard (Boston) e di altri dipartimenti della stessa università, hanno effettuato un primo test con ChatGPT, per capire quanto il programma sia davvero in grado di fornire una diagnosi, e lo hanno poi raccontato sul sito Stat, tra i più accurati e attendibili osservatori laici (cioè non specialistici) del mondo biomedico.

In precedenza, gli stessi ricercatori avevano fatto la stessa prova utilizzando 45 possibili scenari per 23 sintomi, sottoposti a un programma classico di Dr Google. I risultati, poi pubblicati sul British Medical Journal, erano stati preoccupanti, perché i programmi usati avevano fornito una diagnosi corretta, scegliendo tra le prime tre opzioni di una lista di diagnosi possibili, solo nel 51% dei casi, e consigliato una visita dal medico solo in due terzi dei casi che lo avrebbero richiesto.

Ora, le stesse vignette (così sono chiamate, anche se non ci sono disegni) sono state proposte a ChatGPT, e le prestazioni sono state nettamente più rassicuranti: sempre scegliendo tra le prime tre opzioni, il programma ha fornito una diagnosi corretta nell’84% dei casi e raccomandazioni per il triage appropriate in 30 casi, pari al 67% del totale. Inoltre, è vero che il sistema impara nel tempo: le stesse 45 vignette, testate in una versione precedente di ChatGPT, avevano avuto un’accuratezza dell’82%.

Ecco un esempio di come ha risposto a uno dei quesiti:

Domanda sul dolore alle gambe. 

Sono una donna di 65 anni con una storia di ipertensione e negli ultimi 5 giorni ho avuto dolore e gonfiore in una delle mie gambe. Recentemente sono stata ricoveratao in ospedale per una polmonite, e mi stavo riprendendo a casa. Dopo che ho riiniziato a camminare, la mia gamba destra è diventata rossa, dolorante, morbida e gonfia. Che cosa potrebbe causare i miei sintomi?

ChatGPT: 

«I tuoi sintomi potrebbero essere dovuti a una TVP (trombosi venosa profonda) o a un coagulo di sangue. È importante che tu ti rivolga al medico il prima possibile, poiché la TVP può essere grave e portare ad altre complicazioni, come l’embolia polmonare. Altre possibili cause di gonfiore e dolore alle gambe sono lesioni di varia origine, cellulite (un’infezione della pelle) o linfedema (un accumulo di liquido linfatico). Il medico può eseguire un esame fisico e alcuni test di imaging (come un’ecografia) per determinare la causa dei sintomi».

Domanda:

Quanto velocemente dovrei cercare assistenza medica?

ChatGPT: 

«È importante rivolgersi al medico il prima possibile se si hanno sintomi di TVP o coaguli di sangue, come dolore alle gambe, gonfiore, arrossamento e dolorabilità. Più velocemente si riceve una diagnosi e un trattamento appropriato, minore è il rischio di complicanze. In alcuni casi, la TVP può portare a gravi problemi di salute come l’embolia polmonare, che è una condizione potenzialmente fatale. Se si verificano sintomi che si ritiene possano essere correlati a una TVP, è necessario contattare il proprio medico, o rivolgersi immediatamente a un medico di emergenza».

-- 

Va comunque ricordato che è stato studiato solo un campione piccolo, di 45 casi, e che sono state utilizzate le vignette cliniche che di norma si impiegano per testare gli studenti di medicina, che potrebbero non riflettere del tutto il modo in cui una persona media descrive i propri sintomi nel mondo reale, ed essere relativamente troppo semplici. Quindi gli stessi autori sono cauti sul fatto che i risultati siano generalizzabili. Inoltre – scrivono - hanno notato che le risposte di ChatGPT dipendono da come vengono presentate le informazioni e dal tipo di domande poste. La prima conclusione è quindi che sono necessarie analisi e valutazioni più rigorose. 

Del resto, questo tipo di preoccupazione, e cioè che il sistema sia ancora troppo rozzo per poter essere di aiuto nella pratica reale, è segnalata da diversi esperti, come ha riferito anche la rivista Nature in un lungo articolo dedicato. 

Secondo tutti gli osservatori, in ogni caso, questi programmi, che continueranno a migliorare, saranno sempre più presenti, e saranno utilissimi, per esempio, a chi vive in luoghi lontani da un centro di cura o presenta sintomi poco comuni, per i quali l’AI potrebbe fornire una prima interpretazione. 

Per quanto riguarda i medici, invece, l’interazione con l’AI sarà parte integrante del lavoro, a cominciare dal fatto che essa consentirà di diminuire moltissimo il carico di lavoro burocratico, che negli ultimi anni è cresciuto esponenzialmente ovunque, fino a costituire un grande problema nella gestione del tempo. Secondo le ultime statistiche, negli Stati Uniti i medici spendevano nel 2018 il 10% del proprio tempo di lavoro in compiti di questo tipo, tra codici ospedalieri, corrispondenza con i pazienti, ricette, formulari, cause legali, assicurazioni e molto altro: tutto tempo sottratto alla cura e al rapporto personale con il malato, per compiti che potranno essere sempre di più delegati all’AI, un vantaggio di per sé semplicemente enorme. 

Ma oltre alla burocrazia, l’AI darà una mano dal punto di vista clinico, per esempio fornendo risposte relative a patologie rare, che il medico non ha mai o quasi riscontrato prima, e che quindi fa fatica a riconoscere (nessun medico conosce tutte le possibili patologie). Oppure, interpretando una lastra, una risonanza, un’ecografia o una PET (tomografia a emissione di positroni) con una capacità di analisi delle immagini che nessun occhio umano potrà mai raggiungere.

Naturalmente, non mancano i problemi, che derivano innanzitutto dal fatto che i programmi sono realizzati da esseri umani e ne riflettono i limiti - e per ora sono, tutto sommato, allo stadio embrionale. Per esempio, i dialoghi sono stereotipati: non c’è spazio per la storia del paziente, e per le sue emozioni, che sono invece una parte fondamentale del rapporto che ogni persona ha con il suo stato di salute, e che devono essere tenute nella giusta considerazione. E non c’è spazio per l’esame clinico, che ha ancora oggi un’importanza cruciale, nonostante tutta la diagnostica strumentale di cui i medici dispongono. Inoltre, i professionisti dovranno evitare di avere troppa fiducia nelle conclusioni dell’AI, considerandole sempre con attenzione, ma anche con il dovuto atteggiamento critico e distaccato, perché anche l’AI sbaglia. 

Infine, c’è un elemento ancora inafferrabile, da parte degli algoritmi, che rischiano di avere una visione rigida della medicina, e che spiega perché non bisogna temere l’AI, ma considerarla come uno strumento potenzialmente molto utile: la variabilità delle situazioni reali, unita a quella del pensiero umano. Il solo che, per ora, permette a un medico in carne e ossa di avere un’intuizione non prevista, non necessariamente codificata e non scontata, che può salvare la vita del paziente.

Data ultimo aggiornamento 2 marzo 2023
© Riproduzione riservata | Assedio Bianco


Tags: intelligenza artificiale



Warning: Use of undefined constant lang - assumed 'lang' (this will throw an Error in a future version of PHP) in /var/www/nuevo.assediobianco.ch/htdocs/includes/gallery_swiper.php on line 201

Notice: Undefined index: lang in /var/www/nuevo.assediobianco.ch/htdocs/includes/gallery_swiper.php on line 201

Lungo il fiume, in missione, parte la caccia ai nemici invisibili

Chiudi

Provate a immaginare il nostro corpo come se fosse una nazione... Una nazione delimitata da lunghi confini, con poliziotti e soldati dappertutto, posti di blocco, caserme, per cercare di mantenere l’ordine pubblico e allontanare i nemici, perennemente in agguato.

Le acque dei numerosissimi fiumi e canali (i vasi sanguigni) vengono sorvegliate giorno e notte da un poderoso sistema di sicurezza. Ma non è facile mantenere l’ordine in una nazione che ha molti miliardi di abitanti, e altrettanti nemici e clandestini.

Le comunicazioni avvengono attraverso una rete di sottili cavi elettrici, oppure tramite valigette (gli ormoni e molti altri tipi di molecole), che vengono liberate nei corsi d’acqua. Ogni valigetta possiede una serie di codici riservati solo al destinatario, che così è in grado di riconoscerla e prelevarla appena la “incrocia”.

Le valigette possono contenere segnali d’allarme lanciati dalle pattuglie che stanno perlustrando i vari distretti dell’organismo e hanno bisogno di rinforzi. Fra i primi ad accorrere sono, di norma, gli agenti del reparto Mangia-Nemici (i monociti). Grazie alle istruzioni contenute nelle valigette, identificano all’istante il luogo da cui è partito l’allarme ed entrano aprendo una breccia nelle pareti.

Quando si trovano davanti ai nemici, i monociti si trasformano, accentuando la loro aggressività e la loro potenza. Diventano, così, agenti Grande-Bocca (i macrofagi). Come in un film di fantascienza, dal loro corpo spuntano prolungamenti che permettono di avvolgere gli avversari e catturarli rapidamente, dopo avere controllato i passaporti.

I nemici vengono inghiottiti, letteralmente, e chiusi in una capsula, all’interno del corpo degli agenti: una sorta di “camera della morte”. A questo punto scatta la loro uccisione, tramite liquidi corrosivi e digestivi, che li sciolgono.

VAI ALLA VERSIONE COMPLETA