La nueva tecnología, presentada en la 180ª reunión de la Asociación Acústica Americana (ASA), se basa en un sistema de inversión de habla que mapea señales acústicas para localizar variaciones en la voz de las personas.
Con esta información, un modelo de IA implementado en una aplicación es capaz de mostrar el tiempo y el movimiento espacial de los gestos del habla, un elemento que puede usarse para detectar depresiones y otras enfermedades mentales, según recoge el estudio.
Su autora principal, la investigadora de la Universidad de Maryland Carol Espy-Wilson, ha explicado que "la depresión suele ir acompañada de lentitud psicomotora" que hace que las personas no puedan pensar ni hablar rápido, de manera que las personas con depresión "hacen más pausas y más largas que quienes no están deprimidos".
El uso de técnicas de aprendizaje automático en la aplicación permite entrenar a un modelo que clasifica los datos de voz según la salud mental de las personas, con el objetivo de ayudar a estas a que a través de su móviles sean capaces de estar informadas sobre su estado.
Los investigadores esperan que esta información pueda utilizarse para alertar a las personas cuando se detecta que los síntomas de la depresión están empeorando.
Con información de Europa Press