La mayoría de dispositivos actuales del Internet de las Cosas (IoT) que se controlan por voz, como los altavoces inteligentes con asistentes digitales, responden a comandos de activación, como 'Hey, Google' para el Asistente de Google, 'Alexa' para el de Amazon o 'Hey Siri' para el de Apple.

Además del uso de comandos desde el micrófono, la investigación de Carnegie Melon, publicada en octubre, propone añadir un parámetro adicional: la dirección de la voz de las personas.

A través del uso de algoritmos, los dispositivos pueden calcular hacia qué dirección habla el usuario utilizando para ello solamente el sonido. También pueden determinar si el usuario les está hablando a ellos o no, para evitar falsas activaciones.

El modelo de aprendizaje automático analiza la forma en que hablan las personas y su entorno, y predice el ángulo de dirección de la voz y si el usuario está frente al dispositivo. Por ejemplo, se determina que un usuario habla al asistente cuando el primer sonido es más alto y menos distorsionado, dirigido al dispositivo.

Este sistema supone una alternativa a otros sistemas actuales que determinan la dirección de la voz pero que para ello hacen uso de cámaras que analizan la imagen para detectar hacia dónde están mirando la personas.

La herramienta creada por los investigadores de la Universidad Carnegie Melon es "ligera" y funciona desde el propio dispositivo, sin necesidad de enviar los datos a la nube para preservar la privacidad.

Los investigadores publicaron la herramienta en forma de código abierto para que los desarrolladores puedan probar su uso en sus sistemas.

Con información de Europa Pess