Archivio blog

giovedì 29 giugno 2017

Computer Vision Applications in Mental Health: An Interview with Dr. LP Morency. Applicazioni di analisi dell'immagine con il computer nella salute mentale: un'intervista con il Dott. LP Morency

Computer Vision Applications in Mental Health: An Interview with Dr. LP Morency.  The application process of the ENEA patent RM2012A000637 is indispensable in solving this problem. / Applicazioni di analisi dell'immagine con il computer nella salute mentale: un'intervista con il Dott.  LP Morency. L'applicazione  procedimento del brevetto ENEA RM2012A000637 è indispensabile nella soluzione di questa problematica.

Segnalato dal Dott. Giuseppe Cotellessa / Reported by Dr. Giuseppe Cotellessa

The National of Mental Health estimates that more than 40 million adults in the US experienced some form of mental illness in 2015, 16 million (or almost 7% of the US population) of which experienced at least one major depressive episode. Over their lifetime, almost 30% of US adults will develop an anxiety disorder.
This presents a massive load on the healthcare system and requires particularly adept clinicians that can skillfully and quickly diagnose a given mental illness. Even once diagnosed, judging the success of a treatment and gauging how well a patient responds to intervention could be a subjective exercise. In an effort to assist clinicians with these difficult tasks, researchers are looking into bringing computer vision advances into the clinic. MedGadget had the opportunity to chat with Dr. Louis-Philippe Morency, a Carnegie Mellon Professor who is a leader in this field, about his group’s MultiSense technology.
Mohammad Saleh, Medgadget: Tell us about your work on computer vision and human interaction.
Dr. Louis-Philippe Morency: We are developing technologies to automatically sense human non-verbal behaviors such as facial expressions, eye gaze, head gestures, and vocal non-verbal behaviors like the voice and its tenseness. The reason we’re automatically detecting these behaviors is to help clinicians working with mental health patients with their diagnosis and treatments of mental disorders such as depression, anxiety, PTSD, schizophrenia, and autism.

Medgadget: How does it work? Can you touch on the science underlying these algorithms?
Morency: One of the cornerstone algorithms, from a computer-vision perspective, is facial landmark detection. It automatically identifies the position of 68 “landmarks” or key points on the face. These were defined over the years as being reliable to track over time. Examples are the eyebrow positions, contour of the mouth, the eye corners, and jaw contours. These are cornerstones for a later stage of analysis because knowing their current shapes really helps understand and recognize the facial expression. This is coupled with things like head-tilt and eye-gaze estimations.
Medgadget: How much information can you get from these 68 facial parameters? How do you help a computer interpret them to actually “read” an expression?
Morency: These usually allow us to start looking at muscle changes, which in a sense is a way of quantifying facial expression. There was some very well received work early on from Paul Ekman about facial action coding systems and was popularized in recent years through the TV show “Lie To Me”. It’s the idea that muscles of the face can be reliably annotated and are informative to interpret emotions. Depending on how you count it, there are about 28-50 facial action units, so the motion of these landmarks and wrinkles on the face allow us to identify which muscle changes. This information is still low-level, but later on, we interrogate it over time to look for indicators of depression, anxiety, or PTSD.
Through great collaborations with clinicians in the mental health field and medical centers such as McLean Hospital, we gathered large datasets of interviews. For depression, we had almost 500 participants who interacted with our system, and as they were talking about the system we analyzed their non-verbal behaviors. So over time, we aggregate these numbers through some summative statistics to look at correlations between the non-verbal behaviors and their depression scale. That allowed us to identify the behavioral indicators that are best correlated with depression. This gave us about 20 behavioral indicators for depression which can be summarized for a doctor.
We’d like to eventually use this for screening, but in the short-term, the main use-case for this technology is for monitoring patients during treatments. It’s much easier to look at changes in behavior over time for the same person than to use it on a new person you’ve never seen before. There’s a lot of calibration that’s needed when you see a person for the first time – you adapt to their unique idiosyncrasies. But when you see them over time then you can gauge whether there have been changes between sessions. This could be useful for clinicians, help indicates whether the treatment is going well, or if therapy approaches or medications need to be altered.
As for the technology under the hood, we depend on some AI algorithms – a lot of the technology behind it is based on probabilistic graphical models for facial landmark detection. We’ve also recently worked with more deep learning and neural network approaches.
Medgadget: Do you go into this telling the algorithm that these are all patients, or are you “blinding” it and letting the computer pick up on it and compare them to “normal” behaviors?
Morency: For some of our early studies, like the one with 500 volunteers, not everyone was a patient from the hospital. They were participants that were invited to come talk to our computer system or to an interviewer. Before and after people interacted with our system, we had them fill a questionnaire for depression, PTSD, and anxiety self-reporting. From these 500, we had somewhere around 15-20 percent with symptoms related to depression, about the same range for PTSD, and might have been higher for anxiety. It was an interesting population because it was more representative of the real-world. You could also imagine that observing a large a range of symptoms was challenging because the people who are very depressed will be admitted into hospital units. So we were looking at patients on the lower range of depressive symptoms. Now, though, we’ve also started working with hospitals to study referrals from the ER (when we recently started studying suicidal ideation). With McLean Hospital, we’re really working with patients.

Medgadget: You mentioned calibration being an important factor, particularly in setting a baseline measurement. I’m wondering – how accurate are these algorithms?
Morency: We’re working on this for an academic purpose. The goal of the software is not to diagnose depression, that’s always the job of the doctor. We’re building these algorithms as decision support tools for the clinicians so that they can do their assessments. But from an academic perspective, we do want to know how well these behavioral markers are correlating with the assessment of clinicians. We’ve done this work and seen a 78% correlation. So it’s not 100%, but our data is significant. We’re definitely heading in the right direction! It’s also important to note that these algorithms work best when we have a specific patient interview style. Open-ended questions help us gather these non-verbal cues. We want questions that try to bring out the emotion and memories of the patient, and we can get those correlations when these types of questions are asked by the clinicians.
Medgadget: Where do you envision this technology in a clinical setting? How has it looked so far and how will that change?
Morency: The early stage of the technology was looking at screening for depression, PTSD, or anxiety. But eventually as the technology became more mature, we’re seeing the best use case is in treatment. We’re working closely with McLean Hospital to study patients in hospital units. We’re currently looking at a population for psychosis (which includes schizophrenia and bipolar disorder) to look for their behavior markers over time. We’d like to better identify the type of psychosis and give live feedback to clinicians.
Medgadget: Do any other factors play into these visual biomarker assessments? You mentioned visual non-verbal aspects, but do you take into account vocal or behavioral aspects as well?
Morency: Now that we are getting these promising results from non-verbal cues, our next line of research looks at the verbal aspects and the content of what they’re saying. We’re interested in patient lexical and grammatical usage and how that changes. Some previous studies have already seen some signs related to language usage in schizophrenia. But we’re also interested in these because non-verbal behaviors are best understood when they are contextualized with the verbal cues. The gestures and facial expression of a person are often better interpreted if you can see them. So this multi-modal analysis is what we’re pushing our algorithms to do.
Medgadget: That makes sense! It’s like trying to watch TV while it’s on mute – you don’t understand as much as you would if the volume was on.
Morency: Exactly! So our early work was using the only video. It’s quite amazing that we were able to get such behavioral indicators while muting. We’re expecting much more robust indicators as we begin to integrate verbal cues.
Medgadget: You mentioned a few different medical conditions. Does the algorithm itself change between the different conditions?
Morency: You could see it as a three-layer problem. The first two layers generalize quite well between populations. One of them is unimodal and almost instantaneous sensing where you quantify the expression and gaze from the image. The second layer is integrating that information over time for recognition. These two seem to work well for our purposes since we are serving mostly adults. We’ve done some work with teenagers, but not with children. We’re expecting to have to adapt the first two layers for those contexts.
The last layer is the detection of specific behavioral markers, and these are definitely specific to each disorder. We see some markers that generalize between depression and PTSD, for example, but a lot of them do change.
An example of some of these behavioral markers, think about smiling in depression. When we studied it, we were expecting that people who are depressed smile less often than others. It turns out that we were seeing about the same number of smiles, but surprisingly the dynamic of the smile was different. Those who were depressed had a shorter smile with less amplitude. It seems that because of social norms, they smile to be polite in a sense, but don’t feel it as much.
Another really interesting example comes from looking at PTSD. We expected more negative facial expressions from those affected. We didn’t see any distinction like that. However, when we separated men and women, men with PTSD showed an increase in negative facial expressions, while women showed a decrease. That was really interesting because it’s a gender-specific interaction that is probably also founded in social norms – men are typically allowed to show their negative expressions in American culture, but women are often expected to be more “smiley.”
Medgadget: So given how social norms factor into these behavioral cues, how well would these algorithms apply in different cultures? Is it particularly calibrated to Western norms?
Morency: We expect that some of these factors will generalize, but there will definitely be some changes. We have some indicators that gaze behavior, for example, changes. There is a reduction in eye-contact when one is depressed, but in a different culture where it’s respectful not to make eye-contact, we expect the trend will still be observable, but to a lesser extent. That’s actually something we want to test, and are very interested in collaborating with international institutions to study it.
Dr. Morency gave a talk about his research at the World Economic Forum in 2015.
Medgadget: It sounds like a lot of what you’re doing is trying to get at the emotions underlying human interactions. You’ve also mentioned your interest in applications dealing with autism. Could you touch on the intersection of those two?
Morency: One aspect we’re interested in is to help better categorize and diagnose patients with autism. That’s work we’re doing with our collaborator at Yale University. But we’re also interested in helping them with general interactions and public speaking. We have a system with USC which is designed for everyone but will be particularly well-suited for people on the lower part of the autism spectrum. The goal is to help them speak publicly and eventually present themselves for job interviews. So, although we’re interested in the uses for this technology in a clinical setting, there’s room for its use as a training system that gives live feedback to the user.
Medgadget: I came across a paper of yours looking at speech-patterns in suicidal teenagers. What was that about?
Morency: The suicidal teens' study was another surprising result. We were very interested in studying teenagers who visit the ER with suicidal attempts or ideation. The goal originally was to differentiate between those with and without suicidal thoughts. It was previously demonstrated that the way language is used can serve as a marker. Those with suicidal thoughts use personal pronouns like “me” and “myself” a lot more often. We were able to differentiate between them based on their language use. But what we really wanted to do was to be able to predict repeated suicide attempts. So we called them a few weeks later to inquire, and it turns out that the breathiness quality of the voice was predictive of reattempts. It was counter-intuitive – we thought that a tense voice would be the most predictive. One hypothesis is that they’ve already made up their minds and have made peace with it, so their voice is breathy instead of tense.
Medgadget: So what’s your vision for this field of work over the next decade or two?
Morency: We’re seeing a great openness from the medical field to integrate technology. In the next 5 years or less, we’ll see more validation studies. We’re seeing so many promising results for behavioral markers, and we’ll see more studies looking at how these results generalize and apply in different contexts. We’ll also see this technology coming into the field of telemedicine. Specialists are not always available locally to the patient, so being able to interact remotely and gather behavioral markers along the way is an aspect we see having a huge impact on the healthcare field in the coming years.
Medgadget: Are there any applications beyond the medical context that this technology could be used for?
Morency: It’s helpful for at least two more applications. One is for mining online videos. There’s a huge wealth of information from people posting videos online to express their opinions about everything! So summarizing these videos and being able to understand what they’re talking about and the opinions they’re expressing – what is sometimes called opinion mining or sentiment analysis – is a very intriguing application of our multi-modal system. Another line of research that personally excites me is to push forward an agenda to help with online-learning. It’s a field that has huge potential, but we’re not seeing all positive results. We believe this technology could help students have more productive, remote work groups. We want to bring some of the advantages of face-to-face interactions to an online collaborative setting.
Il National of Mental Health stima che più di 40 milioni di adulti negli Stati Uniti abbiano sperimentato una qualche forma di malattia mentale nel 2015, 16 milioni (o quasi il 7% della popolazione americana) hanno sperimentato almeno un episodio depressivo maggiore. Durante la loro vita, quasi il 30% degli adulti americani svilupperà un disturbo d'ansia.
Questo presenta un carico enorme sul sistema sanitario e richiede specialisti esperti che possano sapientemente e rapidamente diagnosticare una determinata malattia mentale. Anche una volta diagnosticata, il giudicare il successo di un trattamento e misurare quanto bene un paziente risponde all'intervento potrebbe essere un esercizio soggettivo. Nel tentativo di aiutare i medici con questi compiti difficili, i ricercatori stanno cercando di portare avanti l'analisi dell'immagine con il computer nella clinica. MedGadget ha avuto l'opportunità di chattare con il dottor Louis-Philippe Morency, un professore di Carnegie Mellon che è un leader in questo campo, sulla tecnologia MultiSense di suo gruppo.

Mohammad Saleh, Medgadget: Dimmi il tuo lavoro sull'analisi dell'immagine del computer e l'interazione umana.
Dr. Louis-Philippe Morency: Stiamo sviluppando tecnologie per sensibilizzare automaticamente i comportamenti non verbali umani come espressioni facciali, movimenti degli occhi, gesti della testa e comportamenti vocali non verbali come la voce e la sua tenacia. Il motivo per cui stiamo rilevando automaticamente questi comportamenti è quello di aiutare i medici che lavorano con i pazienti di malattia mentale con la loro diagnosi e trattamenti di disturbi mentali quali depressione, ansia, PTSD, schizofrenia e autismo.
Medgadget: come funziona? Puoi spiegare la scienza che sottende questi algoritmi?
Morency: Uno degli algoritmi di base, da una prospettiva informatica, è il rilevamento del punto di riferimento del viso. Identifica automaticamente la posizione di 68 "punti di riferimento" o punti chiave sul viso. Questi sono stati definiti nel corso degli anni come essere affidabili per monitorare nel tempo. Esempi sono le posizioni del sopracciglio, il profilo della bocca, gli angoli degli occhi e i contorni delle mascelle. Queste sono le basi per una fase successiva di analisi perché conoscere le loro forme attuali contribuisce davvero a comprendere e riconoscere l'espressione del viso. Ciò è accoppiato con le cose come le inclinazioni della testa e le stime dell'occhio-sguardo.
Medgadget: Quante informazioni si possono ottenere da questi 68 parametri facciali? Come aiuta un computer a interpretarli per "leggere" un'espressione?
Morency: di solito ci permettono di iniziare a guardare i cambiamenti muscolari, che in un certo senso è un modo per quantificare l'espressione del viso. C'era già un lavoro molto ben sviluppato da Paul Ekman circa i sistemi di codifica delle azioni del viso ed è stato diffuso negli ultimi anni attraverso la trasmissione televisiva "Lie To Me". È l'idea che i muscoli del viso possano essere affidabilmente annotati e sono informativi per interpretare le emozioni. A seconda di come lo contate, ci sono circa 28-50 unità di azione del viso, in modo che il movimento di questi punti di riferimento e le rughe sul viso ci permettono di identificare quali siano i cambiamenti muscolari. Queste informazioni sono ancora poche, ma in seguito  nel tempo cercheremo indicatori di depressione, ansia o PTSD.
Attraverso grandi collaborazioni con i medici del settore della salute mentale e centri medici come McLean Hospital, abbiamo raccolto grandi set di dati di interviste. Per la depressione, abbiamo avuto quasi 500 partecipanti che hanno interagito con il nostro sistema, e mentre stavano parlando del sistema abbiamo analizzato i loro comportamenti non verbali. Quindi, nel tempo, aggregare questi numeri attraverso alcune statistiche sommarie per esaminare le correlazioni tra i comportamenti non verbali e la loro scala di depressione. Ciò ci ha permesso di individuare gli indicatori comportamentali che sono meglio correlati con la depressione. Ciò ci ha dato circa 20 indicatori comportamentali per la depressione che possono essere sintetizzati per un medico.
Vorremmo finalmente utilizzare questo per la screening, ma a breve termine, il caso principale per questa tecnologia è quello di monitorare i pazienti durante i trattamenti. È molto più facile guardare i cambiamenti nel comportamento nel tempo per la stessa persona che utilizzarlo su una nuova persona che non hai mai visto prima. C'è una grande quantità di calibrazione che è necessaria quando si vede una persona per la prima volta - si adatta alle loro singolari idiosincrasie. Ma quando li vedi nel tempo, puoi valutare se ci sono stati cambiamenti tra le sessioni. Questo potrebbe essere utile per i medici, l'aiuto indica se il trattamento sta andando bene, o se approcci di terapia o farmaci vanno modificati
Per quanto riguarda la tecnologia sottostante, dipendiamo da alcuni algoritmi AI - molte delle tecnologie che si trovano dietro di essa sono basate su modelli grafici probabilistici per il rilevamento del punto di riferimento del viso. Abbiamo anche recentemente lavorato con approcci più approfonditi e connessi alla rete neurale.
Medgadget: vai in questo modo a dire all'algoritmo che questi sono tutti pazienti, o stai lasciando che il computer possa confrontarli con i comportamenti "normali"?
Morency: Per alcuni dei nostri primi studi, come quello con 500 volontari, non tutti erano pazienti dell'ospedale. Sono stati i partecipanti invitati a parlare con il nostro sistema informatico o ad un intervistatore. Prima e dopo che le persone hanno interagito con il nostro sistema, abbiamo dovuto compilare un questionario per la depressione, il PTSD e l'auto-segnalazione di ansietà. Da questi 500 avevamo da qualche parte circa il 15-20% con i sintomi relativi alla depressione, circa la stessa gamma per il PTSD, e potrebbero essere stati più alti per l'ansia. Era una popolazione interessante perché era più rappresentativa del mondo reale. Si potrebbe anche immaginare che l'osservazione di una vasta gamma di sintomi è stata difficile perché le persone che sono molto depresse saranno ammessi in unità ospedaliere. Quindi stavamo guardando i pazienti sulla più bassa gamma dei sintomi depressivi. Ora, però, abbiamo anche iniziato a lavorare con gli ospedali per studiare i rinvii dalla ER (quando abbiamo recentemente iniziato a studiare l' ideazione suicida). Con McLean Hospital, stiamo lavorando veramente con i pazienti.
Medgadget: Hai citato che la calibrazione è un fattore importante, in particolare nell'impostazione di una misurazione della linea di base. Mi chiedo - quanto sono precisi questi algoritmi?
Morency: Stiamo lavorando su questo per uno scopo accademico. L'obiettivo del software non è quello di diagnosticare la depressione, che è sempre il lavoro del medico. Stiamo costruendo questi algoritmi come strumenti di supporto decisionale per i medici in modo che possano fare le loro valutazioni. Ma da una prospettiva accademica, vogliamo sapere come questi marcatori comportamentali sono correlati con la valutazione dei medici. Abbiamo fatto questo lavoro e abbiamo visto una correlazione del 78%. Quindi non è il 100%, ma i nostri dati sono significativi. Siamo sicuramente nella direzione giusta! È anche importante notare che questi algoritmi funzionano meglio quando abbiamo uno stile di intervista del paziente specifico. Le domande aperte ci aiutano a raccogliere questi segnali non verbali. Vogliamo domande che tentino di far emergere l'emozione e le memorie del paziente e possiamo ottenere queste correlazioni quando questi tipi di domande vengono chiesti dai medici.
Medgadget: Dove immagini questa tecnologia in un ambiente clinico? Come è sembrato finora e come cambierà?
Morency: la fase iniziale della tecnologia stava guardando lo screening per la depressione, il PTSD o l'ansia. Ma alla fine quando la tecnologia è diventata più matura, vediamo che il miglior caso d'uso è in trattamento. Stiamo lavorando a stretto contatto con McLean Hospital per studiare i pazienti in unità ospedaliere. Stiamo attualmente guardando una popolazione per la psicosi (che include schizofrenia e disturbo bipolare) per cercare i loro marcatori di comportamento nel tempo. Vorremmo meglio identificare il tipo di psicosi e dare risposte dal vivo ai medici.
Medgadget: Ci sono altri fattori in queste valutazioni biomarcatori visivi? Hai citato aspetti non verbali visivi, ma prendi anche in considerazione aspetti vocali o comportamentali?
Morency: Ora che stiamo ottenendo questi risultati promettenti da indicazioni non verbali, la nostra prossima linea di ricerca riguarda gli aspetti verbali e il contenuto di quello che stanno dicendo. Siamo interessati all'utilizzo lessicale e grammaticale del paziente e al modo in cui ciò cambia. Alcuni studi precedenti hanno già visto alcuni segni legati all'uso della lingua nella schizofrenia. Ma siamo anche interessati a questi perché i comportamenti non verbali sono meglio compresi quando sono contestualizzati con i suggerimenti verbali. I gesti e l'espressione facciale di una persona sono spesso meglio interpretati se  puoi vederli. Quindi questa analisi multi-modale è ciò che stiamo utilizzando per i nostri algoritmi.
Medgadget: Ha senso! E 'come provare a guardare la TV mentre è  muto - non capisci tanto quanto se il volume sia acceso.
Morency: esattamente! Quindi il nostro lavoro iniziale stava usando l'unico video. È abbastanza sorprendente che siamo stati in grado di ottenere tali indicatori comportamentali in condizione di mancanza di informazioni verbali. Ci aspettiamo indicatori molto più robusti mentre cominciamo ad integrare le indicazioni verbali.
Medgadget: Hai citato alcune condizioni mediche diverse. L'algoritmo stesso cambia tra le diverse condizioni?
Morency: Potresti vederlo come un problema a tre livelli. I primi due strati generalizzano abbastanza bene tra le popolazioni. Uno di essi è unimodale e quasi istantaneo, dove quantifica l'espressione e lo sguardo dall'immagine. Il secondo livello sta integrando tali informazioni nel tempo per il riconoscimento. Questi due sembrano funzionare bene per i nostri scopi poiché stiamo servendo per lo più adulti. Abbiamo fatto qualche lavoro con gli adolescenti, ma non con i bambini. Ci aspettiamo di dover adattare i primi due strati per quei contesti.
L'ultimo livello è la rilevazione di marcatori comportamentali specifici, e sono sicuramente specifici per ogni disturbo. Vediamo alcuni marcatori che generalizzano tra depressione e PTSD, ad esempio, ma molti di loro cambiano.
Un esempio di alcuni di questi marcatori comportamentali, pensa al sorridere nella depressione. Quando lo abbiamo studiato, ci aspettavamo che le persone che sono depresse sorridano meno spesso di altri. Si scopre che stavamo vedendo circa lo stesso numero di sorrisi, ma sorprendentemente la dinamica del sorriso era diversa. Quelli che erano depressi avevano un sorriso più corto con meno ampiezza. Sembra che a causa delle norme sociali, sorridono per essere gentili in un certo senso, ma non lo sanno tanto.
Un altro esempio veramente interessante proviene dall'esame di PTSD. Ci aspettavamo più espressioni facciali negative da coloro che sono stati colpiti. Non abbiamo visto alcuna distinzione così. Tuttavia, quando abbiamo separato uomini e donne, gli uomini con PTSD hanno mostrato un aumento delle espressioni facciali negative, mentre le donne hanno mostrato una diminuzione. Questo è stato davvero interessante perché è un'interazione specifica di genere che è probabilmente anche fondata sulle norme sociali - agli uomini in genere è permesso di mostrare le loro espressioni negative nella cultura americana, ma spesso le donne sono più sorridenti.
Medgadget: Quindi, dato che le norme sociali sono fattori importanti in questi suggerimenti comportamentali, come questi algoritmi si potranno adattare a culture diverse? È particolarmente calibrato alle norme occidentali?
Morency: ci aspettiamo che alcuni di questi fattori generalizzeranno, ma ci saranno sicuramente alcuni cambiamenti. Abbiamo alcuni indicatori che guardano il comportamento, ad esempio, i cambiamenti. C'è una riduzione del contatto visivo quando uno è depresso, ma in una cultura diversa in cui è rispettoso non avere contatti con gli occhi, ci aspettiamo che la tendenza sarà ancora osservabile, ma in misura minore. Questo è in realtà qualcosa che vogliamo testare e sono molto interessati a collaborare con le istituzioni internazionali per studiarlo.
Medgadget: Sembra che molto di quello che stai facendo stia cercando di ottenere le emozioni che stanno alla base delle interazioni umane. Hai anche citato il tuo interesse per le applicazioni relative all'autismo. Potresti toccare questo argomento?
Morency: un aspetto in cui siamo interessati è quello di aiutare a categorizzare e diagnosticare meglio i pazienti con autismo. Questo è il lavoro che stiamo facendo con il nostro collaboratore presso la Yale University. Ma siamo anche interessati ad aiutarli con interazioni generali e nel farli parlare in pubblico. Abbiamo un sistema con USC che è progettato per tutti, ma sarà particolarmente adatto per le persone nella parte inferiore dello spettro dell'autismo. L'obiettivo è quello di aiutarli a parlare pubblicamente e, alla fine, di presentarsi per interviste di lavoro. Così, anche se siamo interessati agli usi di questa tecnologia in un ambiente clinico, c'è spazio per il suo utilizzo come sistema di formazione che fornisce feedback dal vivo all'utente.
Medgadget: ho letto un tuo lavoro guardando i modelli di discorso in adolescenti aspiranti al suicidio. Di che si trattava?
Morency: lo studio dell'adolescenza suicida è stato un altro risultato sorprendente. Siamo stati molto interessati a studiare adolescenti che visitano la ER con tentativi o ideazioni suicide. L'obiettivo era inizialmente quello di distinguere tra quelli con o senza pensieri suicidi. È stato dimostrato in precedenza che il modo in cui viene utilizzato il linguaggio può servire da marker. Coloro che hanno pensieri suicidi usano i pronomi personali come "me" molto più spesso. Siamo stati in grado di distinguere tra loro in base al loro uso linguistico. Ma quello che volevamo davvero fare era quello di poter prevedere ripetuti tentativi di suicidio. Quindi li abbiamo chiamati poche settimane dopo per indagare e si scopre che la qualità del suono della voce era predittiva dei tentativi ripetuti. Era contraddittorio - abbiamo pensato che una voce tesa sarebbe stata la più predittiva. Una ipotesi è che hanno già analizzato i loro comportamenti, quindi la loro voce è più rilassata invece di essere in tensione.
Medgadget: Quindi, qual è la tua visione di questo campo di lavoro nel corso del prossimo decennio o due?
Morency: Stiamo vedendo una grande apertura dal campo medico per integrare la tecnologia. Nei prossimi 5 anni o meno, vedremo ulteriori studi di convalida. Stiamo vedendo così tanti risultati promettenti per i marcatori comportamentali e vedremo ulteriori studi che esaminino come questi risultati si generalizzano e si applicano in contesti diversi. Vedremo anche questa tecnologia che entra nel campo della telemedicina. Gli specialisti non sono sempre disponibili a livello locale per il paziente, per cui è in grado di interagire in modo remoto e di raccogliere marcatori comportamentali lungo un percorso, un aspetto che vedremo avere un enorme impatto sul campo sanitario nei prossimi anni.
Medgadget: ci sono applicazioni oltre il contesto medico per cui questa tecnologia potrebbe essere utilizzata?
Morency: è utile per almeno altre due applicazioni. Uno è quello di estrarre i video online. C'è un'enorme quantità di informazioni da parte delle persone che pubblicano video online per esprimere le loro opinioni su tutto! Quindi, riassumendo questi video e capendo cosa stanno parlando e le opinioni che stanno esprimendo - ciò che a volte viene chiamato analisi di opinione o analisi sentimentale - è un'applicazione molto intrigante del nostro sistema multimodale. Un'altra linea di ricerca che mi eccita personalmente è spingere avanti un'agenda per aiutare con l'apprendimento on-line. È un settore che ha enormi potenzialità, ma non vediamo tutti i risultati positivi. Riteniamo che questa tecnologia possa aiutare gli studenti a creare gruppi di lavoro più produttivi e remoti. Vogliamo portare alcuni dei vantaggi di interazioni faccia a faccia ad un ambiente collaborativo online.