Seleziona la lingua

Italian

Down Icon

Seleziona Paese

Mexico

Down Icon

ChatGPT e altri modelli linguistici potrebbero rilevare i segnali della depressione

ChatGPT e altri modelli linguistici potrebbero rilevare i segnali della depressione

Uno studio del Jama Open Network suggerisce che modelli linguistici di grandi dimensioni come ChatGPT hanno il potenziale per rilevare rischi per la salute mentale nei pazienti sottoposti a cure psichiatriche.

Una ricerca condotta da un team coreano indica che, sebbene questi modelli "dimostrino potenziale" per rilevare questi tipi di rischi, " è essenziale migliorare ulteriormente le prestazioni e la sicurezza prima dell'applicazione clinica".

Il team ha esaminato il potenziale dei grandi modelli linguistici, ovvero sistemi di intelligenza artificiale addestrati su grandi quantità di dati, in modo da essere in grado di comprendere e generare un linguaggio naturale.

Lo stesso potenziale è dimostrato dagli embedding, una tecnica di elaborazione del linguaggio naturale che converte il linguaggio umano in vettori matematici, anch'essa analizzata dal team.

Lo studio si è basato sui dati di 1.064 pazienti psichiatrici di età compresa tra 18 e 39 anni, che hanno completato vari test di autovalutazione e di completamento delle frasi .

Leggi: Ottieni il secondo prodotto a metà prezzo per Julio Regalado di Soriana

Questi ultimi consistono nel proporre al paziente una serie di frasi incomplete che egli deve completare con la prima cosa che gli viene in mente e che forniscano informazioni soggettive , ad esempio, sulla concezione che ha di sé stesso o delle relazioni interpersonali.

I dati sono stati elaborati da modelli linguistici di grandi dimensioni come GPT-4, Gemini 1.0 Pro o Google Deepmind e da modelli di incorporamento di testo come text-embedding-3-large OpenAI .

La ricerca sottolinea che questi modelli "hanno dimostrato il loro potenziale nella valutazione dei rischi per la salute mentale ", tra cui depressione e suicidio, "utilizzando dati narrativi provenienti da pazienti psichiatrici".

In un commento allo studio, a cui non ha partecipato, Alberto Ortiz dell'Ospedale Universitario La Paz (Madrid) ha osservato che lo studio è stato condotto su pazienti già sottoposti a trattamento psichiatrico, quindi generalizzare i suoi risultati per applicare questa metodologia al rilevamento del rischio nella popolazione generale "non è possibile, per il momento".

Ortiz ha affermato al Science Media Centre, una piattaforma di risorse scientifiche, che l'applicazione dell'intelligenza artificiale alla salute mentale dovrà, in ogni caso, concentrarsi sulle narrazioni soggettive delle persone, come avviene in questa ricerca.

Tuttavia, ha ritenuto che "una cosa è individuare i rischi ed effettuare lo screening, un'altra è curare le persone con disagio psicologico, un compito che va oltre l'applicazione di una soluzione tecnologica e in cui la soggettività del professionista è essenziale per sviluppare il legame terapeutico".

Potrebbe interessarti: Julio Regalado da Soriana: Questi sono TUTTI i prodotti che sono 3 per 2

* * * Rimani aggiornato sulle novità, unisciti al nostro canale Whatsapp * * *

OB

informador

informador

Notizie simili

Tutte le notizie
Animated ArrowAnimated ArrowAnimated Arrow