Interfaz de usuario natural (NUI)

Una interfaz de usuario natural (NUI) es un sistema para la interacción persona-computadora que el usuario opera a través de acciones intuitivas relacionadas con el comportamiento humano cotidiano y natural. 

Un NUI se puede operar de varias formas diferentes, según el propósito y los requisitos del usuario. Algunas NUI dependen de dispositivos intermediarios para la interacción, pero las NUI más avanzadas son invisibles para el usuario o tan discretas que rápidamente parecen invisibles. 

Algunos ejemplos y aplicaciones de interfaces de usuario naturales:

Las interfaces de pantalla táctil permiten a los usuarios interactuar con los controles y las aplicaciones de forma más intuitiva que una interfaz basada en cursor porque es más directa: en lugar de mover un cursor para seleccionar un archivo y hacer clic para abrirlo, por ejemplo, el usuario toca una representación gráfica del archivo. archivo para abrirlo. Los teléfonos inteligentes y las tabletas generalmente permiten la entrada táctil. Touch también se está adaptando para aplicaciones que no son de pantalla. Por ejemplo, Microsoft está trabajando en una interfaz táctil llamada "skinput" que permite a los usuarios interactuar tocando su propia máscara.

Los sistemas de reconocimiento de gestos rastrean los movimientos del usuario y traducen esos movimientos en instrucciones. Los sistemas de juegos de movimiento Nintendo Wii y PlayStation Move funcionan a través de acelerómetros y giroscopios basados ​​en controladores para detectar la inclinación, la rotación y la aceleración. Un tipo de NUI más intuitivo está equipado con una cámara y un software en el dispositivo que reconoce gestos específicos y los traduce en acciones. Kinect de Microsoft, por ejemplo, es un sensor de movimiento para la consola de juegos Xbox 360 que permite a los usuarios interactuar a través de movimientos corporales, gestos y comandos hablados. Kinect reconoce los cuerpos y las voces de los jugadores individuales. El reconocimiento de gestos también se puede utilizar para interactuar con computadoras.

El reconocimiento de voz permite a los usuarios interactuar con un sistema a través de comandos hablados. El sistema identifica las palabras y frases habladas y las convierte a un formato legible por máquina para la interacción. Las aplicaciones de reconocimiento de voz incluyen enrutamiento de llamadas, conversión de voz a texto y operación de computadora y teléfono móvil con manos libres. El reconocimiento de voz también se utiliza a veces para interactuar con sistemas integrados.

Las interfaces de seguimiento de la mirada permiten a los usuarios guiar un sistema a través de los movimientos oculares. En marzo de 2011, Lenovo anunció que había producido la primera computadora portátil con control visual. El sistema Lenovo combina una fuente de luz infrarroja con una cámara para capturar los destellos reflectantes de los ojos del usuario. El software calcula el área de la pantalla que se está mirando y usa esa información como entrada.

Las interfaces cerebro-máquina leen señales neuronales y usan programas para traducir esas señales en acción. BCI puede hacer posible que una persona paralizada opere una computadora, una silla de ruedas motorizada o una prótesis solo con el pensamiento.

En una conferencia de 2008, August de los Reyes de Microsoft habló de la NUI como la próxima etapa evolutiva en la computación desde la interfaz gráfica de usuario (GUI), ya que la GUI era de la interfaz de línea de comandos (CLI).

 

Ver también: usabilidad, computación generalizada, hogar inteligente

 

Continúe leyendo sobre las interfaces de usuario naturales:

Wikipedia sobre interfaces de usuario naturales

Interfaces de usuario naturales: voz, tacto y más

Las computadoras portátiles de Lenovo son las primeras en tener la capacidad de control visual

Definición de la interfaz de usuario natural