lunes, 15 de julio de 2013

Leap Motion y Google Glass significa para el futuro la experiencia del usuario

Con el controlador de movimiento Leap siendo puesto en libertad el 22 de julio y el programa Explorador de cristal Google ya vivir, es obvio que nuestra confianza en el ratón o la pantalla para interactuar con la Web con el tiempo se convertirá en obsoleto.

La afirmación anterior parece un hecho, teniendo en cuenta que la tecnología se mueve a un ritmo tan rápido. Sin embargo, en 40 años de la computación personal, los métodos de control de las máquinas no han evolucionado más allá de usar un ratón, un teclado y tal vez un lápiz. Sólo en los últimos seis años hemos visto la adopción masiva de pantallas táctiles.

Dado que los dispositivos de control emergentes como el Controlador Leap nos están permitiendo interactuar con una precisión casi de píxel perfecto en 3-D el espacio, las computadoras serán menos dinámicos como las páginas de una revista y más como ventanas a otro mundo. Para asegurarnos de que estamos en la misma página, por favor, tómese un minuto para comprobar cuál es elcontrolador de movimiento Leap puede hacer:


" Presentación de la Propuesta Leap "

Gracias a los monitores de convertirse en portátil con Google Glass (y los competidores que están seguros de seguir), es fácil ver que el mundo virtual ya no estará obligado a superficies planas en dos dimensiones.

En este artículo, vamos a viajar cinco o diez años en el futuro y explorar un mundo donde Google Glass, Movimiento Leap y algunas otras tecnologías son una parte tan importante de nuestra vida cotidiana como los teléfonos inteligentes y computadoras de escritorio son ahora. Vamos a estar hablando de un nuevo paradigma de interfaz hombre-máquina.

El objetivo de esta obra es iniciar un debate con visión de futuro los diseñadores de experiencia de usuario , y para explorar lo que es posible cuando la corriente empieza a interactuar con las computadoras en el espacio 3-D.

Preparando el escenario: Algunas cosas a tener en cuenta

Antes de la introducción del iPhone en 2007, muchos consideraban el smartphone sea para los techies y gente de negocios. Pero en 2013, que sería difícil encontrar a alguien en el mundo desarrollado que no está comprobando su correo electrónico o twitteando en momentos aleatorios.

Por lo tanto, es comprensible pensar que una conversación sobre el control de movimiento, la interacción en 3D y monitores portátiles es prematuro. Pero si la revolución móvil nos ha enseñado algo, es que las personas anhelan la conexión sin tener que depender de un dispositivo estacionario.

Para entender realmente cómo la experiencia del usuario (UX) va a cambiar, primero tenemos que considerar la posibilidad de que UX social y utilitaria se llevará a cabo en diferentes entornos. En el futuro, la gente usará el escritorio principalmente para fines utilitarios, mientras que "social" UX ocurrirá en una capa virtual, superponiendo el mundo real (gracias al vidrio). Los primeros indicadores de esto son que Facebook anticipa su crecimiento móvil superando el crecimiento del PC y que casi una séptima parte de la población propios teléfonos inteligentes del mundo .

El único obstáculo en este momento es que no tenemos la tecnología para fusionar realmente el mundo real y virtual. Pero me estoy adelantando. Vamos a empezar con algo más familiar.
El escritorio

En este momento, UX en el escritorio no puede ser verdaderamente inmersiva.Cada interacción requiere arrastrando físicamente un trozo de plástico a través de una superficie plana, que se aproxima a una posición en la pantalla. Si bien esto se acepta como algo común, es muy poco natural. El escritorio es el único ambiente en el que se interactúa con un píxel a la vez.

Claro, usted podría crear la ilusión de tres dimensiones con sombras y efectos de paralaje, pero eso no cambia el hecho de que el usuario puede interactuar con una sola parte de la pantalla a la vez.

Esta es la razón por el controlador de movimiento Leap es revolucionario .Esto le permite interactuar con el entorno virtual con los 10 dedos y herramientas del mundo real en el espacio 3-D. Es tan importante para la informática como sticks analógicos eran a los videojuegos.
El cambio en la forma de interactuar con las máquinas

Para envolver la cabeza en torno a lo que cambia el juego, esto será, vamos a volver a lo básico. Una base UX y test de inteligencia artificial para cualquier nueva plataforma es un simple juego de ajedrez.


(Imagen: Wikimedia Commons )

En el juego de ajedrez a continuación, gracias a controladores de movimiento y cámaras web, usted será capaz de "llegar a" y apoderarse de una pieza, como ver a su amigo el estrés sobre las que ir a hacer a continuación.


Ahora usted puede ver su sudor oponente. (Imagen: Algernon D'Ammassa )

En un juego de Los Sims, usted será capaz de reacomodar los muebles moviéndolo con las manos. Diseñadores de CAD a utilizar sus manos para "físicamente" manipular los componentes (y luego enviar su diseño a laimpresora 3-D que han comprado de primera necesidad para el prototipado.)

Si bien la falta de retroalimentación táctil podría disuadir a la adopción generalizada desde el principio, la investigación de hápticos que ya está permitiendo a los desarrolladores simulan retroalimentación física en el mundo real que se correspondan con las acciones de equivalente virtual de un usuario.Tenga esto en mente a medida que continúe leyendo.

Con el tiempo, este nivel de 3-D interactividad cambiará fundamentalmente la manera en que utilizamos nuestras computadoras de escritorio y portátiles totalmente.

Piense en esto : El escritorio es un lugar tranquilo y aislado perfecto, para hacer el trabajo más complejo como la escritura, edición de fotos o de "manos en" la formación para aprender algo nuevo. Sin embargo, una experiencia 3-D, como los mencionados anteriormente, no tiene sentido para las interacciones sociales, como en Facebook o leer las noticias, que son cada vez más de la telefonía móvil .

Con la inmersión, que está disponible a través de experiencias interactivas todo el escritorio, es difícil imaginar que los usuarios que desean estas dos experiencias que compartir la misma pantalla.

Así que, ¿qué sería una experiencia de escritorio típico parece?
Imagínese un sitio web de cocina para la gente que no sabe cocinar

Con esta página web cocinar para la gente que no sabe cocinar, no estamos hablando sólo de tutoriales en vídeo o recetas con instrucciones poco comprensivos, sino simulaciones inmersivas en el que un instructor que conduce a través de hacer una comida virtual desde la preparación de la presentación.

Las interacciones en este entorno sería tan natural que el desafío del diseño real es poner al usuario en una cocina que es creíble como propio.

No tendría que hacer clic y arrastrar el icono que representa azúcar; usted llegar con su mano de cinco dedos virtual y tomar la "caja" de tamaño natural de azúcar Domino de marca. No tendría que hacer clic para engrasar la sartén, que le imitan empujando la boquilla de aerosol de la botella de Pam.

El Instituto de Tecnología de Tokio ya ha construido una simulación de este tipo en el mundo real. Por lo tanto, la transferencia de la experiencia en el escritorio es sólo una cuestión de tiempo.


" simulador de cocina le ayudará a cocinar un filete perfecto cada vez "

UX en el escritorio futuro será de alrededor de simulación de la física y la creación de ambientes realistas, así como el seguimiento de la cabeza, el cuerpo y los ojos para crear interfaces de 3-D intuitivos, basado en HTML5 yWebGL .

Aparte de lo obvio aplicaciones a mano, tales como programas de arte CAD y la tecnología cambiarán el paradigma de la UX y la interfaz de usuario (UI) de diseño de formas que son actualmente difíciles de comprender.

El problema ahora es que en la actualidad carecemos de una serie de gestos en 3D claramente definidos para interactuar con un 3-D UI. Diseño de interfaces de usuario va a ser difícil sin saber lo que nuestros cuerpos tienen que hacer para interactuar.

Lo más cercano que tenemos en estos momentos a los gestos definidos son los creados por los hackers de Kinect y John Underkoffler de Oblong Tecnología (el equipo detrás de la interfaz de usuario de Minority Report).

En su charla TED de 2010, Underkoffler demuestra probablemente el ejemplo más avanzado de 3-D interacción persona-ordenador que se va a ver por un tiempo. Si usted tiene 15 minutos de sobra, le recomiendo verlo:


John Underkoffler a hablar " Apuntando al futuro de la interfaz de usuario "

Ahora, antes de empezar a discutir, "Minority Report no es práctico - los seres humanos no están diseñados para eso!" Considerar dos cosas:
No es probable que sea interactuando con pantallas de 60 pulgadas Sala de envoltura de la forma en que Tom Cruise en Minority Report hace, por lo tanto, nuestros gestos no tienen que ser tan grande.
El cuerpo humano se adapta rápidamente a su medio ambiente. Entre los años 2000 y 2010, un período en que los ordenadores personales realmente hizo mainstream, informes de síndrome del túnel carpiano se redujo en casi un 8% .


(Foto: Departamento de Salud de Minnesota )

Sin embargo, debido a que el controlador de movimiento Leap es menos de $ 80 y estará disponible en Best Buy, esta tecnología no es sólo hipotética, sentado en un laboratorio en alguna parte, con un montón de frikis que dicen "¿No sería genial si ..."

Es real y es barato, lo que realmente significa que estamos a punto de entrar en el Wild West de verdadero diseño 3-D.
Social vuelve al mundo real

Entonces, ¿dónde deja eso a UX social? Introduzca Glass.

Es fácil pensar que las pantallas de realidad aumentada (AR), como Google Glass montado en la cabeza, no se adoptará por el público, y en 2013, eso puede ser cierto.

Pero recuerde que nosotros resistimos el teléfono cuando salió, por muchas de las mismas preocupaciones sobre la privacidad . El mismo va para los teléfonos móviles y los teléfonos inteligentes de todo 2007.

Así, mientras que el vidrio de primera generación no es probable que se reunió con la adopción generalizada, es la introducción de una nueva fase. ABI Research predice que el mercado de dispositivos portátil será superior a 485 millones de envíos anuales para el año 2018.

Según Steve Lee, director de productos de cristal ', el objetivo es "permitir a la gente a tener una interacción más humana" y "conseguir la tecnología fuera del camino."

Vidrio de primera generación realiza búsquedas en Google, da la hora, da indicaciones giro a giro, informes del tiempo, toma fotografías, grabaciones de vídeo y hace lugares de reunión - que son muchas de las razones por las que nuestros teléfonos están delante de nuestras caras ahora.

Mover estas interacciones en un heads-up display, mientras mueve las interacciones sociales importantes y más resistente a una pantalla montada en la muñeca, como el Pebble smartwatch , elimina por completo el teléfono y le permite ver realmente lo que está delante de ti.


(Imagen: Pebble )

Ahora, tenga en cuenta la posibilidad de que algo así como el controlador de movimiento salto podría ser lo suficientemente pequeño como para integrarse en un smartwatch montado en la muñeca. Esto, combinado con una pantalla montada en la cabeza, sería esencialmente nos dará la posibilidad de crear una capa virtual interactivo que se superpone a la realidad.

Añadir pulsera háptica tecnología y una conexión Bluetooth para el SmartWatch, y usted será capaz de "sentir" objetos virtuales como físicos manipularlos tanto en el mundo real y en el escritorio. Si bien esto todavía podría sonar a ciencia ficción, con vidrio al parecer a un precio de entre $ 299 y $ 499 y Leap Motion en $ 80 y Pebble es $ 150, asequibilidad generalizada de estas tecnologías no es del todo imposible.
UX social en el futuro: Un Caso de Uso

Imagínese caminando por el centro comercial, y su íntimo amigo Jon actualiza su estado. Un icono rojo aparece en la parte superior derecha de su campo de visión. El reloj muestra el avatar de Jon, que dice, "tan hambriento en estos momentos."

Usted dice: "OK, Glass. Actualización de estado: ¿Qué hay de comer? ¿Qué quieres? "Y sigue caminando.

"Tacos".

Usted dice: "OK, Glass. ¿Dónde puedo conseguir una buena comida mexicana? "40 amigos han evaluado favorablemente de Rosa Cafe . ¿Te gustaría llegar? "Sí." Se inicia la navegación, y ya está en camino.

Se llega a la cafetería, pero Jon está a 10 minutos. ¿Te gustaría un audiolibro mientras esperas? "No, reproducir música." Una lista de reproducción inteligente compila exactamente 10 minutos de música que se adapta perfectamente a su estado de ánimo.

"OK, Glass. Jugar Angry Birds 4. "

Al otro lado de la mesa, las versiones en 3D de los cerditos verdes y sus torres se materializan.

Delante de usted hay un pájaro rojo, el pájaro amarillo, dos pájaros azules y una honda. El pájaro rojo salta, se tira de nuevo en la honda, el haz de trayectoria muestra un camino a través de la mesa, lo dejas ir y derribar una fila de malas cerditos.

De repente, una idea que viene a ti. "OK, Glass. Cambiar a Evernote ".

Un trozo de papel y un lápiz se proyecta sobre la mesa delante de ti, y un tablón de anuncios aparece a la izquierda.

Usted toma la pluma AR, anote su nota, mueva el papel para el boletín correspondiente, y volver a Angry Birds.

Usted puede hacer su juego visible para otros usuarios de vidrio. De esta manera, otros podría jugar con usted - o, al menos, sabría que no eres un loco pretendiendo hacer ... lo que usted está haciendo en la mesa.

Cuando Jon llega, las notificaciones están deshabilitadas. Se pulsa el icono de menú en la mesa y seleccionar su comida. Llega su comida, usted toma fotos de su comida, comer, publicar en Instagram 7.

Antes de salir, el restaurante ofrece una notificación educado, que le permite saber que un cupón de 10% de descuento será enviado a su teléfono si usted escribe un comentario.
Cómo la tecnología usable Interactúa Con Desktops

Más tarde, después de haber terminado el tutorial de cocina en el escritorio, usted decide que es hora de hacer la comida de verdad. Se pone sobre el vidrio e ir a la tienda. El auricular le guía directamente a las marcas que se anunciaban "en el juego". Después de escoger los ingredientes, usted recibe una notificación de que el cupón de un fabricante ha sido enviada a su teléfono y puede ser utilizada en el check-out.

Cuando llegue a casa, usted pone una zanahoria en la tabla de cortar y una superposición directrices proyectos sobre dónde cortar. Usted pone la carne, y un gráfico de prisionero de guerra se superpone, que muestra dónde golpear para la ternura óptimo :



Usted pone la carne en el horno; Vidrio inicia el temporizador. Usted pone las verduras en la sartén; Vidrio superpone un patrón para mostrar dónde y cuándo moverse.

Mientras estaba en la tienda, Vidrio ayudó a escoger la botella de vino perfecta para emparejar con su comida (basado en las críticas, por supuesto). Por lo tanto, vierte un cristal y relajarse mientras espera a que el temporizador apagará.

En el futuro, las experiencias de la vida real UX aumentada se convertirán en negocio real. Cuanto más a mejorar la vida real, más exitoso será su negocio.Después de todo, ¿es realmente difícil de imaginar esta experiencia en la cocina se convirtió en un juego?
¿Qué podemos hacer acerca de esto hoy?

Si usted es el tipo de interfaz de usuario de diseño que trata de empujar los límites, entonces la mejor cosa que puedes hacer ahora es pensar. Debido a que la tecnología no es 100% disponible, lo mejor que puedes hacer es abrir la imaginación a lo que será posible cuando la persona promedio ha evolucionado más allá del teclado y el ratón.

Inspirarse en sitios web y software que simulan la profundidad para crear experiencias dinámicas, en capas que se pueden manejar fácilmente, sin un ratón. La página web de la agencia Negro Negativo es un buen ejemplo del futuro inspirado en la interacción "plana". Es fácil imaginar la interacción con este sitio web sin necesidad de un ratón. El nuevo Myspace es otra.

Para ir realmente profundo, mira las diferentes Chrome Experiments , y encontrar un experto HTML5 y WebGL desarrollador para discutir lo que está reservado para el futuro. El software y las interacciones que surgen de su mente determinarán si estas tecnologías serán útiles.
Conclusión

Mientras que todo lo que he hablado aquí es conceptual, tengo curiosidad por saber qué piensa acerca de cómo (o si) estos dispositivos afectarán IU. También me encantaría escuchar su visión de las futuras interfaces de usuario.

Para empezar, permítame hacerle dos preguntas:
¿Cómo afectará la capacidad de llegar a la pantalla e interactuar con el mundo virtual de forma a nuestras expectativas de la computación?
¿Cómo va a contenidos desanclaje de las superficies planas de un cambio profundo en el medio?

Espero sus comentarios. Por favor comparta este artículo si usted ha disfrutado de este viaje hacia el futuro.

0 comentarios :

Publicar un comentario