Gioia, tristezza, preoccupazione: le emozioni si dipingono sul volto, comunicando ciò che le parole spesso nascondono. Ma uno smartphone può rilevare la depressione attraverso i segnali del viso? È quello che punta a fare un’app per smartphone che utilizza l’intelligenza artificiale abbinata a un software di elaborazione delle immagini facciali per rilevare in modo affidabile l’insorgenza della depressione prima ancora che l’utente si accorga che qualcosa non vada. Questa tecnologia, sviluppata dai ricercatori del Dartmouth College, monitora le espressioni facciali degli utenti durante l’utilizzo quotidiano del telefono, analizzando dettagliatamente ogni sfumatura emotiva.

Come funziona l’app

L’innovativa applicazione (MoodCapture) sviluppata dai ricercatori dell’ateneo statunitense, sfrutta l’intelligenza artificiale e il riconoscimento facciale per individuare segnali clinici associati alla depressione. Il suo obiettivo è rilevare l’insorgenza della malattia prima ancora che l’utente si renda conto di qualcosa di sbagliato.

“Le persone usano software di riconoscimento facciale per sbloccare i loro telefonini centinaia di volte al giorno”, spiega Andrew Campbell, autore corrispondente dello studio disponibile in versione preprint nel database ‘arXiv’ e professore di informatica al Dartmouth. Per fare un esempio, l’esperto recentemente ha mostrato di averlo fatto più di 800 volte in una settimana con il suo telefono. “MoodCapture utilizza una pipeline tecnologica simile alla tecnologia di riconoscimento facciale con deep learning e hardware di Ai – illustra – quindi esiste un enorme potenziale per ampliare questa tecnologia senza alcun input o onere aggiuntivo per l’utente”.

“Una persona sblocca semplicemente il telefono e MoodCapture conosce le dinamiche della sua depressione e può suggerirle di cercare aiuto”, continua Campbell. Questo dispositivo apre le porte al supporto digitale per la salute mentale in tempo reale, riflettono gli autori che presenteranno il lavoro alla conferenza Chi 2024 dell’Association of Computing Machinery a maggio. I documenti sono sottoposti a ‘peer review’ prima dell’accettazione e saranno pubblicati negli atti della conferenza. Questi risultati “suggeriscono che la tecnologia potrebbe essere disponibile al pubblico entro i prossimi 5 anni con ulteriori sviluppi”, affermano i ricercatori del Dipartimento di informatica e della Geisel School of Medicine.

Lo studio

In uno studio condotto su 177 persone con diagnosi di disturbo depressivo maggiore, l’applicazione ha dimostrato un’affidabilità del 75% nell’identificare i primi sintomi della depressione.

Nel corso dello studio, sono state acquisite 125.000 immagini dei partecipanti nell’arco di 90 giorni. Questi soggetti hanno acconsentito a essere fotografati tramite la fotocamera anteriore dei loro telefoni senza sapere quando ciò avveniva.

Un gruppo iniziale di partecipanti è stato utilizzato per istruire l’applicazione MoodCapture nell’identificare i segni di depressione. Durante questo processo, sono state scattate foto casuali mentre i soggetti rispondevano a domande del Questionario di Salute del Paziente, uno strumento utilizzato dai professionisti medici per rilevare e monitorare la depressione maggiore. Utilizzando l’intelligenza artificiale, i ricercatori hanno analizzato queste immagini per addestrare il modello predittivo di MoodCapture a riconoscere specifiche espressioni facciali associate alla depressione, oltre a caratteristiche ambientali come colori, illuminazione e disposizione delle persone nell’immagine.

Il sistema di intelligenza artificiale ha identificato relazioni tra espressioni facciali e contesti circostanti, come il contatto visivo e le variazioni nelle espressioni. Nel tempo, MoodCapture ha appreso i tratti distintivi delle immagini specifiche di ciascun individuo, permettendo di rilevare possibili stati depressivi. Ad esempio, se una persona continua ad essere ritratta con un’espressione neutra in un ambiente scarsamente illuminato per un periodo prolungato, il sistema potrebbe dedurre un possibile stato depressivo. Una verifica successiva su un campione separato di partecipanti ha confermato un’accuratezza del 75% nel predire la depressione.

Tuttavia, nonostante questi risultati promettenti, è stato evidenziato che un sensore per essere considerato utilizzabile dovrebbe raggiungere una precisione del 90%. Pur non raggiungendo tale soglia, spiega Campbell, lo studio ha dimostrato la fattibilità di tale obiettivo.