La nueva tecnología, presentada en la 180ª reunión de la Asociación Acústica Americana (ASA), se basa en un sistema de inversión de habla que mapea señales acústicas para localizar variaciones en la voz de las personas.
Con esta información, un modelo de IA implementado en una aplicación es capaz de mostrar el tiempo y el movimiento espacial de los gestos del habla, un elemento que puede usarse para detectar depresiones y otras enfermedades mentales, según recoge el estudio.
Su autora principal, la investigadora de la Universidad de Maryland Carol Espy-Wilson, ha explicado que "la depresión suele ir acompañada de lentitud psicomotora" que hace que las personas no puedan pensar ni hablar rápido, de manera que las personas con depresión "hacen más pausas y más largas que quienes no están deprimidos".
El uso de técnicas de aprendizaje automático en la aplicación permite entrenar a un modelo que clasifica los datos de voz según la salud mental de las personas, con el objetivo de ayudar a estas a que a través de su móviles sean capaces de estar informadas sobre su estado.
Los investigadores esperan que esta información pueda utilizarse para alertar a las personas cuando se detecta que los síntomas de la depresión están empeorando.
Con información de Europa Press
Acerca de los comentarios
Hemos reformulado nuestra manera de mostrar comentarios, agregando tecnología de forma de que cada lector pueda decidir qué comentarios se le mostrarán en base a la valoración que tengan estos por parte de la comunidad. AMPLIAREsto es para poder mejorar el intercambio entre los usuarios y que sea un lugar que respete las normas de convivencia.
A su vez, habilitamos la casilla [email protected], para que los lectores puedan reportar comentarios que consideren fuera de lugar y que rompan las normas de convivencia.
Si querés leerlo hacé clic aquí[+]