Carmel Hassan UX & Product Designer

Testear la Experiencia de Usuario

Hace más de un año de la publicación Measuring UX with your own tools en la revista nosolousabilidad.com, desde entonces he seguido trabajando y viendo el testing como una de las formas más prácticas para tomar decisiones en diseño. Me gustaría volver a reflexionar sobre algunas cosas que menciono en el artículo y ‘actualizar’ algunas ideas.

Aunque los datos no tienen todas las respuestas, es importante establecer ciertas métricas para medir de la forma más objetiva posible si el producto que estamos desarrollando va a funcionar para las personas que están destinado a usarlo.

Efectivamente los datos no nos cuentan todo, de hecho, el riesgo de ‘medir mal’ puede hacer incluso que nos desoriente a la hora de buscar una respuesta. Sin embargo, incluso cuando un dato parezca demostrarnos algo a lo que debemos prestar atención, seguimos teniendo la posibilidad de corroborarlo con más experimentos.

El proceso de Validación es contínuo, desde la generación de la idea inicial hasta las sucesivas mejoras e iteraciones que sobre el producto vivo se realizan.

Un enfoque de diseño guiado por datos no es más que asumir la experimentación como parte del proceso, que viene a ser el mismo principio fundamental que nos mueve a trabajar con prototipos antes de lanzarnos a desarrollar el producto final.

Los tests de usabilidad no consiste en testear a usuario. Es decir, no evaluamos cómo de buenos o malos son las personas usando nuestra solución, sino que medimos la calidad de producto en términos de una experiencia de usuario satisfactoria. También afirmábamos que hacer UX Testing es hacer User Research. Como proceso iterativo que es, los descubrimientos hechos deben ayudar a un mejor entendimiento de los usuarios, cómo son y cómo interactúan real y finalmente con nuestro producto a pesar de nuestras creencias.

Hay dos ideas fundamentales que me gustaría dejar claras:

  1. Los usuarios no siempre tienen la razón, pero debemos conocer cómo son y cómo se comportan. En ningún momento testear con usuarios debe suponer juzgarles o estereotiparles.
  2. Testing y Research son dos caras de la misma moneda

Los objetivos de la validación persiguen generalmente:

  • Reducir la incertidumbre
  • Validar hipótesis
  • Guiar el proceso
  • Facilitar la toma de decisiones informada
  • Identificar nuevos requisitos de producto
  • Entender mejor el modelo mental de los usuarios
  • Encontrar y resolver problemas de usabilidad

Las métricas de UX tienen algo de especial o diferenciador con el resto de métricas y es que revelan información no sólo del sistema sino de las personas, de su comportamiento y sus actitudes. Por eso cuando interpretemos las métricas debemos tener especial cuidado y calcular también intervalos de confianza, al igual que razonar sobre los principios de diseño las posibles conclusiones que se obtenga.

¿Cómo podemos cuantificar la Experiencia de Usuario? Métricas y Métodos

Para poder tener una idea del estado de usabilidad de un producto digital, es posible obtener información de tres formas diferentes:

  1. Basado en lo que los usuarios hacen
  2. Basado en lo que los usuarios dicen
  3. Basado en lo que nosotros (como testeadores) observamos

Estos tres puntos de vista son igualmente importantes y, aunque no todos ellos se pueden considerar cuantificables, hay una intención clara de analizarlos de forma combinada como parte de un indicador global de la UX.

¿Por qué es importante un score de UX global? Un score global de UX puede ser interesante en grandes empresas para tener una visión de aquello que afecta puramente a la experiencia donde múltiples procesos de desarrollo confluyan. Sin embargo, incluso en esos contextos donde es muy apetecible para los ‘managers’ demandar un indicador global, no es en absoluto recomendable y es, incluso, contraproducente. Los KPIs de UX deben ser accionables y ayudarnos a tomar decisiones, no a justificar diseños.

Midiendo la User Performance (lo que los usuarios hacen)

Las métricas de rendimiento serán calculadas basadas en comportamientos, escenarios y tareas concretas de los usuarios. Estas métricas nos hablarán de eficacia y eficiencia y nos servirán para entender la magnitud los problemas de usabilidad que encontremos. Eso sí, nos indicarán qué está yendo mal, no por qué está yendo mal.

Las métricas más comunes son:

  • Éxito de la tarea: cómo son de eficaces los usuarios a la hora de realizar las tareas planteadas en un test con usuarios. También se puede medir la tasa de errores.
  • Duración de la tarea: cuánto tiempo ha utilizado el usuario en realizar una tarea del test.
  • Errores: el número de errores que ha tenido un usuario al realizar una tarea.
  • Eficiencia: cantidad de esfuerzo que un usuario gasta en realizar una tarea, por ejemplo el número de clics.
  • Curva de aprendizaje: cómo el rendimiento mejora o empeora a lo largo del tiempo.

Me gustaría hacer especial hincapié en la forma en la que se expresan y se describen esas ‘tareas’ propuestas para los usuarios.

Las tareas propuestas deben tener sentido dentro de un escenario y contexto de uso específico. En lugar de pedir a nuestros usuarios ‘hace esto’ o ‘haz lo otro’ lo que tendemos a pedirles es que se imaginen en un determinado escenario y proponerles una serie de retos u objetivos para ver cómo podrían lograr hacerlos.

Algunas reglas que deben seguirse para estas tareas son

  1. Hacer la tarea realista
  2. Hacer la tarea accionable
  3. Evitar pistas o descripción de pasos

Independientemente de si estáis haciendo un test de usuario formal o de ‘guerrilla’, esto último es muy importante. Al fin y al cabo no sólo enlaza con la forma en la que describimos y entendemos el problema, sino que también es la mejor conversación que podemos tener con los usuarios, sentarnos junto a ellos, verlos interactuar en un contexto real, con unas necesidades reales y quizá con uno o varios prototipos que le permitan alcanzar sus objetivos. Éste es feedback es mucho más valioso que un simple ‘me gusta/no me gusta’.

Google Analytics al rescate

Una forma alternativa, que no sustituye a la anterior pero sí aporta información parecida (según queramos medirla) en un contexto diferente, es hacer uso de eventos y de Google Analytics para monitorizar en un producto online sin necesidad de organizar sesiones de tests de forma continuada.

Midiendo la Usabilidad Percibida (lo que los usuarios dicen)

No todas las personas sabemos expresar con palabras los problemas que encontramos. A veces simplemente reaccionamos con gestos, expresiones o guardamos silencio.

Nuestros usuarios no son menos, a pesar de que nuestra expectativa por conocer qué piensan y a veces nuestras críticas sobre cómo expresan los problemas nos lleva a creer que sólo lo que se dice es relevante, nos puede inducir a equivocaciones.

Sin embargo es importante escuchar y hacerles ver que son escuchados. Durante una sesión de test con usuarios una técnica muy efectiva es el think-aloud. A los usuarios se les pedirá que cuenten qué están intentando hacer durante la resolución de una tarea. Después de haber completado la tarea se les puede preguntar que califiquen el grado de complejidad percibida en la tarea, De esta forma podremos saber cómo varía su percepción a lo largo del tiempo. Si además les solicitamos esta información antes de realizar la tarea podríamos comparar sus expectativas con su experiencia final.

Finalmente, tras la realización de una sesión de test completa se les puede pasar una encuesta estándar conocida como Software Usability Survey para que puedan expresar con escalas de uno a cinco cuál es el grado de usabilidad general percibida en la solución.

En resumen, conseguiremos información mucho más valiosas si no hacemos preguntas directas a los usuarios sobre ‘gustos’ sino pidiéndoles que valoren soluciones específicas para tareas y problemas concretos expresándose como grados de satisfacción, al mismo tiempo que escuchamos y observamos sus comentarios y expresiones durante el intento de realización de dichas tareas.

Midiendo las Issues evaluadas (lo que observamos)

Cuando realizamos revisiones de experto o heurísticos de usabilidad iremos identificando una serie de issues que en principio nos darán una métrica puramente cualitativa. Normalmente, una issue viene descrita por un título y una descripción del problema, aunque es recomendable añadir también un grado de severidad del problema y relacionarla con la tarea específica que el usuario estaría intentando hacer en ese momento.

El grado de severidad y la frecuencia de aparición de las issues nos van a ayudar de nuevo a cuantificar esta métrica.

Hablábamos al principio de la sesión de los principios heurísticos de Nielsen, y son ciertamente estos principios los que se observan y evalúan siguiendo ciertos escenarios de tests donde los expertos nos ponemos en la piel del usuario y tratamos de analizar cómo está siendo la experiencia con la solución.

Estas revisiones de experto las podemos realizar con la frecuencia que queramos, generalmente de sprint a sprint, ayudan a cazar ciertas issues antes de que llegue a un cliente. No tiene ningún valor esperar a que un usuario se queje (ya que posiblemente no lo hará) de que algo está mal alineado o es inconsistente, sin embargo lo que sí hará será percibir desorden en la interfaz y notar cómo dificulta su aprendizaje.

Errores comunes

De entre los errores más comunes que me he encontrado cuando he realizado heurísticos se encuentran:

  • Mensajes de información y error
  • Formularios
  • Colocación de elementos en la pantalla, dificultad de escanear
  • No hay manera de encontrar o buscar
  • Inconsistencias en iconografía, verbos (acciones), patrones de navegación
  • La información está mal organizada
  • Demasiada densidad de información
  • Las llamadas a la acción no están claras
  • Los usuarios tardan en interpretar la información
  • Los usuarios tienen miedo a interactuar, si hay errores más

 

Conclusiones

Medir la Experiencia de Usuario no es una tarea imposible ni inabarcable, simplemente hay que tener claro qué preguntas queremos contestar en cada momento y una vez tengamos respuestas hacia dónde debemos explorar más. Ya sea para monitorizar la usabilidad de un software o como guía de un diseño informado, aplicar métricas cuantitativas aporta una visión única a la forma en la que desarrollamos software. En futuros artículos hablaré sobre cómo visualizar y analizar dichas métricas.

 

Photo by Dawid Małecki on Unsplash

I’m UX/Product Designer at Ebury. I have a chaotic side project called Cinefilica and founded the most interesting tech community in Málaga: Yes We Tech. I enjoy writing random thoughts on UX, Design, Technology and Society.

Add comment

Deja un comentario

Este sitio usa Akismet para reducir el spam. Aprende cómo se procesan los datos de tus comentarios.

Carmel Hassan UX & Product Designer

About

I'm UX/Product Designer at Ebury. I have a chaotic side project called Cinefilica and founded the most interesting tech community in Málaga: Yes We Tech. I enjoy writing random thoughts on UX, Design, Technology and Society.

Categorías

¡Suscríbete!

Introduce tu correo electrónico para suscribirte a este blog y recibir notificaciones de nuevas historias.

Entradas recientes

Comentarios recientes

Meta