Questo sito utilizza cookies tecnici per l'analisi del traffico, in forma anonima e senza finalità commerciali di alcun tipo; proseguendo la navigazione si acconsente all'uso dei medesimi Ok, accetto

I sistemi di AI come ChatGPT sono pessimi come psicoterapisti e possono fare danni

I sistemi di intelligenza artificiale (AI) basati sui large language models (LLM) come ChatGPT sono pessimi come psicoterapisti. Anche se moltissime persone li usano per risparmiare tempo e denaro, ciò che rischiano di ottenere potrebbe costituire un pericolo per la salute psichica. Lo dimostra uno studio presentato alla AAAI/ACM Conference on Artificial Intelligence, Ethics and Society dai ricercatori della Brown University, che hanno chiesto a sette Counsellor professionisti con ampia esperienza di istruire, oltre a ChatGPT di OpenAI, anche Claude di Anthropic e Llama di Meta con indicazioni di terapia cognitivo-comportamentale. Quindi hanno selezionato alcune conversazioni di questi LLM con persone reali e le hanno sottoposte ad altri tre specialisti in psicologia clinica, i quali hanno rilevato almeno 15 diversi aspetti eticamente critici. Tra gli errori più evidenti e pericolosi, gli esperti hanno messo in luce che i LLM non contestualizzano e non tengono conto del background del paziente, dando solo consigli generici. Inoltre non instaurano una vera collaborazione: a volte sono troppo energici, a volte rafforzano convinzioni errate. C’è poi un problema di empatia ingannevole, perché anche se dicono frasi come “ti ascolto” o “ti capisco”, in realtà non possono entrare in connessione né comprendere i problemi. I LLM mostrano anche pregiudizi di natura religiosa, di genere, di cultura o razziale e non sanno gestire le crisi. Spesso si rifiutano di fornire risposte nelle situazioni più delicate o non sanno indirizzare chi le sta vivendo verso l’approccio corretto, neppure quando si tratta di pensieri suicidi.

L’ultima cosa che bisognerebbe fare quando si ha bisogno di un sostegno psicolgico, in definitiva, è cercarlo negli LLM.

A.B.
Data ultimo aggiornamento 27 marzo 2026
© Riproduzione riservata | Assedio Bianco



Lungo il fiume, in missione, parte la caccia ai nemici invisibili

Chiudi

Provate a immaginare il nostro corpo come se fosse una nazione... Una nazione delimitata da lunghi confini, con poliziotti e soldati dappertutto, posti di blocco, caserme, per cercare di mantenere l’ordine pubblico e allontanare i nemici, perennemente in agguato.

Le acque dei numerosissimi fiumi e canali (i vasi sanguigni) vengono sorvegliate giorno e notte da un poderoso sistema di sicurezza. Ma non è facile mantenere l’ordine in una nazione che ha molti miliardi di abitanti, e altrettanti nemici e clandestini.

Le comunicazioni avvengono attraverso una rete di sottili cavi elettrici, oppure tramite valigette (gli ormoni e molti altri tipi di molecole), che vengono liberate nei corsi d’acqua. Ogni valigetta possiede una serie di codici riservati solo al destinatario, che così è in grado di riconoscerla e prelevarla appena la “incrocia”.

Le valigette possono contenere segnali d’allarme lanciati dalle pattuglie che stanno perlustrando i vari distretti dell’organismo e hanno bisogno di rinforzi. Fra i primi ad accorrere sono, di norma, gli agenti del reparto Mangia-Nemici (i monociti). Grazie alle istruzioni contenute nelle valigette, identificano all’istante il luogo da cui è partito l’allarme ed entrano aprendo una breccia nelle pareti.

Quando si trovano davanti ai nemici, i monociti si trasformano, accentuando la loro aggressività e la loro potenza. Diventano, così, agenti Grande-Bocca (i macrofagi). Come in un film di fantascienza, dal loro corpo spuntano prolungamenti che permettono di avvolgere gli avversari e catturarli rapidamente, dopo avere controllato i passaporti.

I nemici vengono inghiottiti, letteralmente, e chiusi in una capsula, all’interno del corpo degli agenti: una sorta di “camera della morte”. A questo punto scatta la loro uccisione, tramite liquidi corrosivi e digestivi, che li sciolgono.

VAI ALLA VERSIONE COMPLETA