sábado, 4 de abril de 2015

Una interfaz creada para las gafas inteligentes nos quiere convertir en mejores oradores

La expectativa creada en torno al lanzamiento de productos como las Google Glass no ha sido suficiente para impulsar una adopción masiva de las gafas inteligentes. Esto no ha influido, en cambio, los esfuerzos de los investigadores de enriquecer la experiencia de uso a través de nuevas aplicaciones.

Un grupo de expertos en computación del departamento Human-Computer Interaction de la Universidad de Rochester ha venido con una idea que podría elevar más el interés para una tecnología que intenta reinventarse para sobrevivir en el mercado de los wearables. Se trata de una interfaz de usuario desarrollada para servir como apoyo a los propietarios de las gafas inteligentes durante los discursos públicos.

La primera pregunta a la que tuvieron que contestar fue cómo crear un sistema que complemente la secuencia verbal del ponente con indicaciones, sin interferir en la fluidez del discurso:

“Uno de los retos es de mantener a los ponentes informados sobre su rendimiento verbal sin distraerlos de su discurso. Una distracción suficientemente significativa puede introducir comportamientos poco naturales, como el tartamudeo o las pausas incómodas”, explica en su paper, Ehsan Hoque, profesor asistente de Ciencias de la Computación y uno de los principales autores de la investigación.

Por ese motivo, han decidido crear un sistema al que llamaron Rhema y que ofrece al orador información en tiempo real sobre la modulación del volumen de la voz y la velocidad del habla.

Google Glass al servicio de la oratoria

Las gafas inteligentes que tienen instalada la interfaz pueden grabar la voz del orador, transmitir el audio a un servidor para analizar de forma automática el volumen y la velocidad de la voz y devolver la información en tiempo real, según explican los expertos. En base a los datos recibidos, el usuario detectará las sugerencias y decidirá si quiere modificar su discurso o no.

Para ver si la iniciativa da buen resultado, los autores del estudio han probado el sistema con un grupo de 30 hablantes nativos de inglés que han usado las Google Glass. El ensayo se dividió en varias fases.

En uno de los experimentos probaron un sistema de distintos colores, palabras y gráficos, pero sin recibir el feedback, mientras que en otro no vieron nada en el display del dispositivo durante la mayoría del tiempo, excepto un corto feedback que se mantuvo solo unos segundos.

Pero finalmente, la técnica que mejor funcionó fue la de una sucesión de palabras enviadas cada 20 segundos (“más alto”, “más lento” o nada si el usuario está haciendo un buen trabajo).

La conclusión a la que se llegó fue que el grupo de entrevistados que recibieron este último tipo de feedback notaron una mejoría en su capacidad de expresividad verbal en comparación con los que no recibieron ningún tipo de respuesta por parte del wearable.

En el futuro, los desarrolladores del sistema quieren probar su tecnología con grupos más entrenados en el arte de los discursos, pero también ven posible otros usos de la interfaz con el fin de mejorar la comunicación de las personas con problemas en la interacción social o de las que trabajan en los departamentos de atención al público.

Imagen principal






from TICbeat http://ift.tt/1J3FlAj