Ir al contenido

Usuario:Yanina López/Taller

De Wikipedia, la enciclopedia libre

Añadiendo a la página "Prueba de usabilidad"

Métricas de usabilidad[editar]

Norma ISO / IEC 9126-4 de Usabilidad Métrica[editar]

La norma ISO 9241-11 define usabilidad como "el grado en que un producto puede ser utilizado por usuarios específicos para lograr los objetivos específicos con efectividad, eficiencia y satisfacción en un contexto de uso". Las métricas de usabilidad son medidas precisas de calidad utilizadas para evaluar un sistema. La norma ISO / IEC 9126-4 recomienda que las métricas de usabilidad deben incluir:

  • Eficacia: La exactitud e integridad con la que los usuarios a lograr los objetivos especificados.

Medidas de eficacia de usabilidad: La efectividad se refiere a la exactitud e integridad con la que los usuarios pueden lograr sus objetivos.
Las medidas típicas incluyen:

- Número de tareas que pueden realizarse.
- Porcentaje de funciones relevantes utilizadas.
- Porcentaje de tareas completadas con éxito en el primer intento.
- Número de errores persistentes.
- Número de errores por unidad de tiempo.
- Porcentaje de usuarios capaces de completar con éxito la tarea.
- Número de solicitudes de asistencia que realiza la tarea.
- Medida objetiva de la calidad de la producción.
- Medida objetiva de la cantidad de producción.
- Porcentaje de usuarios que pueden llevar a cabo tareas clave sin leer el manual.

  • Eficiencia: Los recursos gastados en relación con la exactitud e integridad con la que los usuarios a lograr objetivos.

Medidas de eficiencia de usabilidad: La eficiencia se refiere a la cantidad de esfuerzo que los usuarios necesitan para poder alcanzar sus metas.
Las medidas típicas incluyen:

- Tiempo para ejecutar un conjunto particular de instrucciones.
- Tiempo empleado en el primer intento.
- Tiempo para realizar una determinada tarea; - Tiempo para realizar la tarea en comparación con un experto.
- Tiempo para alcanzar el rendimiento de expertos.
- Número de pulsaciones de teclas adoptadas para lograr la tarea.
- El tiempo dedicado a la corrección de errores.
- Número de iconos recordados después de la finalización de la tarea.
- Porcentaje de tiempo dedicado al uso del manual.
- El tiempo dedicado en volver a aprender las funciones.

  • Satisfacción: La comodidad y la aceptabilidad de uso. La satisfacción hace referencia a cómo los usuarios se sientan sobre el sistema.

Las medidas típicas incluyen:

- Porcentaje de los clientes que califican el producto como "más satisfactorio" que un producto anterior.
- Cambio de uso voluntario.
- Porcentaje de clientes que se sienten "en control" del producto.
- Porcentaje de clientes que se lo recomendaría a un amigo después de su uso de dos horas.

Indicadores de usabilidad[editar]

La usabilidad se mide generalmente usando una serie de indicadores que sean observables y cuantificables de los cuales se pueda obtener unos resultados tangibles más allá de la intuición. A continuación se enumeran los más frecuentes:

  1. Tasa de completación de tarea: este indicador se contabiliza de manera binaria (1 = Tarea Realizada con Éxito y 0 = Tarea no Superada) esta medida permite conocer de una manera simple la facilidad de uso a la hora de realizar una tarea.
  2. Problemas de usabilidad: este indicador revela los problemas que le han surgido al usuario a la hora de realizar una tarea, además puede incorporar una escala de gravedad ligada a los problemas surgidos. Ayuda a conocer la probabilidad con la que el usuario se encontrará con un problema en cada fase del desarrollo. Además se pueden obtener estadísticas de la cantidad de problemas que le surgen a cada usuario y cuáles son los problemas más frecuentes.
  3. Tiempo de completación de tarea: sirve para medir la eficiencia y la productividad. Es el tiempo total utilizado para llevar a cabo una tarea. Esta medida registra las horas, minutos y segundos empleados.
  4. Nivel de satisfacción de la tarea: se trata de un pequeño cuestionario para averiguar la dificultad que ha observado el usuario al realizar la tarea, que además servirá para comparar la dificultad entre varias tareas.
  5. Nivel de satisfacción de la prueba: cuestionario en forma de una o varias preguntas que recogen las impresiones que el usuario ha percibido en cuanto a la facilidad o dificultad del uso general de la aplicación, sitio web etc.
  6. Errores: este indicador recoge cualquier acción involuntaria, error, omisión o acción no deliberada que el usuario haya cometido al intentar realizar una tarea. Recupera cada incidencia junto con una descripción. Este indicador es de gran ayuda ya que revela los campos que con mayor frecuencia causan confusión al usuario, y en los que comete fallos o acciones equivocadas que provocan la desviación del objetivo propuesto por la tarea. Esto último recuerda al significado raíz de usabilidad por lo que hay que prestarle mayor atención. Además se pueden ordenar por categorías y clasificar en función de su importancia.
  7. Expectativas: en este indicador se le pide al usuario que estime el nivel de dificultad que espera encontrar a la hora de realizar una tarea, para luego poder comparar los resultados con las impresiones reunidas al finalizar la tarea (lo esperado con lo real).
  8. Páginas vistas / click: se utiliza en herramientas de analítica web, por lo que no es necesario realizar un estudio de usabilidad para recabar datos relacionados con este indicador. Sirve para aplicaciones web y sitios web; está demostrado que existe una alta correlación entre los clicks y el tiempo dedicado a cada tarea, siendo el primer click crucial para determinar si la tarea será realizada finalmente con éxito o no. Es una de las mejores métricas para medir la eficiencia.
  9. Conversión: se trata de una medida de efectividad que también se puede encontrar en herramientas de analitica web. Es una herramienta esencial en el comercio electrónico ya que revela si los usuarios pueden completar las tareas de inscripción o compra en un sitio web; también se contabilizan de manera binario (1 = convertido, 0 = no convertido). A la hora de completar esta tarea y por lo tanto de lograr la conversión o no, normalmente afectan varios factores entre los cuales se encuentran los problemas de usabilidad, los errores y los tiempos.
  10. SUM (Single Usability Metric): sirve para describir la usabilidad de un sistema mediante la combinación de tres indicadores de usabilidad: tasa de completación de tarea, tiempo de completación de tarea y nivel de satisfacción de la tarea.
  11. SUS (System Usability Scale): es una herramienta rápida y fiable para medir la usabilidad. Consiste en un cuestionario compuesto por diez preguntas que se puntúan mediante una escala Likert (de 1 a 5).


¿Qué no son “pruebas de usablidad”?[editar]

No se pueden considerar pruebas de usabilidad al conjunto de opiniones sobre un objeto, ya que esto corresponde a una investigación de mercado o investigación cualitativa. Las pruebas de usabilidad implican una observación sistemática en condiciones controladas para determinar cómo las personas interactúan con un determinado producto. Sin embargo, las pruebas cualitativas y de usabilidad pueden utilizarse conjuntamente como métodos para comprender mejor las motivaciones o percepciones de los usuarios, además de su interacción.

En lugar de preguntar a los usuarios: “¿Usted entiende esto?”, las pruebas de usabilidad implican observar a los usuarios tratando de resolver sus problemas. Por ejemplo, cuando un usuario utiliza las instrucciones para montar un juguete, no se le pediría que comentara las piezas o los materiales de las mismas, sino que debería montar el juguete. En este proceso influirá la redacción de las instrucciones, calidad de las ilustraciones y el diseño del juguete.

Técnicas de pruebas de usablidad[editar]

Pasillo de pruebas[editar]

Las pruebas de usabilidad basadas en esta técnica son más baratas y rápidas que otras ya que las personas elegidas para realizar el estudio son escogidas al azar. De esta manera se ahorran costes relacionados con la contratación de personal especializado. El objetivo es analizar la manera en la que estos individuos usan e interaccionan con la aplicación o dispositivo a evaluar. Las personas seleccionadas para esta prueba no tienen un perfil concreto de modo, que las aptitudes, habilidades y capacidades de cada uno pueden ser totalmente diferentes. Mediante esta prueba los diseñadores pueden identificar qué características de la aplicación resultan más confusas o difíciles de utilizar, e incluso qué aspectos de mayor gravedad impiden al usuario avanzar en las primeras etapas de un nuevo diseño. Las personas seleccionadas tienen que ser totalmente independientes y ajenos al producto, para lograr unos resultados óptimos y lo más reales posibles. Se debe asegurar que no se parte con cierto conocimiento de la aplicación, sitio web, dispositivo etc.

Prueba de usabilidad remota[editar]

En un escenario en el que los evaluadores de usabilidad, los desarrolladores y los usuarios potenciales se encuentran en diferentes países y zonas horarias, la realización de una evaluación tradicional de usabilidad en un laboratorio genera retos tanto desde el punto de vista económico como desde las perspectivas logísticas. Estas preocupaciones dieron lugar a la investigación sobre la evaluación de usabilidad a distancia, en la que el usuario y los evaluadores se encuentran separados en el espacio y el tiempo. Las pruebas a distancia dan lugar a nuevos y variados contextos en los que los usuarios parten de tecnologías diferentes y además las tareas se pueden desarrollar de manera síncrona o asíncrona. De manera síncrona la comunicación entre el usuario y el evaluador es directa, se efectúa en tiempo real; mientras que la segunda implica que el usuario y el evaluador trabajan por separado[1]​. Existen numerosas herramientas disponibles para hacer frente a las necesidades de estos dos enfoques.

Las metodologías de pruebas de usabilidad síncrona se sirven de videoconferencia u otras herramientas que permiten el uso compartido de aplicaciones remotas, una de estas herramientas es WebEx. WebEx y GoToMeeting son las tecnologías más utilizadas para llevar a cabo un test de usabilidad remota síncrona[2]​. Sin embargo, las pruebas que se realizan de manera remota y síncrona pueden carecer de la inmediatez y el sentido de “presencia” deseada para apoyar un proceso de pruebas de colaboración. Por otra parte, la gestión de las dinámicas interpersonales a través de barreras culturales y lingüísticas pueden requerir enfoques sensibles a las culturas involucradas. Otras desventajas incluyen la reducción del control sobre el entorno en el que se realiza la prueba y las distracciones e interrupciones experimentados por los participantes en su ambiente nativo[3]​. Uno de los métodos más nuevos desarrollados para la realización de un test de usabilidad remota síncrona es mediante el uso de mundos virtuales[4]​.

Las metodologías asíncronas incluyen la entrega automática de un registro de la ruta o secuencia de clics que el usuario ha efectuado mientras navegaba (clickstream) y un registro con los incidentes críticos que se hayan producido mientras se interactuaba con la aplicación, así como retroalimentación subjetiva de la interfaz por los usuariosJump up^ Dray, Susan; Siegel, David (2004). "Remote possibilities?". Interactions 11 (2): 10.doi:10.1145/971258.971264. Al igual que en un estudio de laboratorio, una prueba de usabilidad remota asíncrona está basada en tareas, de manera que la plataforma permite capturar los clicks y los tiempos utilizados para completar las tareas. Por lo tanto, todo esto permite que muchas empresas entiendan cuáles son las verdaderas intenciones o qué buscan realmente los usuarios cuando visitan sus sitios web. Además, este tipo de pruebas de usuario también proporciona una oportunidad para obtener retroalimentación segmentada por zona geográfica y por tipo de actitud y de comportamiento. Las pruebas se llevan a cabo en el propio entorno del usuario (en lugar de los laboratorios) ayudando así a simular un escenario de la vida real. Este enfoque también ofrece un vehículo para solicitar fácilmente retroalimentación de los usuarios en zonas remotas de forma rápida y con inferiores gastos generales organizacionales. En los últimos años, la realización de pruebas de usabilidad de forma asíncrona ha llegado a ser muy frecuente permitiendo que los usuarios proporcionen sus comentarios y aportaciones en su tiempo libre y con toda comodidad desde su casa.

Opinión de expertos[editar]

La evaluación de la usabilidad basada en expertos se trata en que profesionales con cierta experiencia en un campo (posiblemente de compañías que se especializan en pruebas de usabilidad) evalúan la usabilidad de un producto. Una auditoría de usabilidad o evaluación heurística es la evaluación de una interfaz por uno o más expertos en Factores Humanos. Éstos miden la usabilidad, eficiencia y eficacia de la interfaz basada en principios de usabilidad, como la Heurística de Usabilidad definida originalmente por Jakob Nielsen en 1994[5]​. Los 10 principios de la La Heurística de Usabilidad de Nielsen, que han evolucionado en respuesta a la investigación de usuarios y nuevos dispositivos, son:

  • Visibilidad del estado del sistema: El sistema siempre debe mantener a los usuarios informados acerca de lo que está pasando, a través de la retroalimentación adecuada en un tiempo razonable.
  • Diferenciación entre el sistema y el mundo real: El vocabulario utilizado por el sistema hacia los usuarios deberá ser fácilmente comprensible para este, utilizando palabras, frases y conceptos que le resulten familiares.
  • Libertad y control para el usuario: Si los usuarios seleccionaran alguna función por error, se les ofrecerá en todo momento una opción de “deshacer” para salir del estado no deseado sin tener que pasar a través de un diálogo ampliado.
  • Coherencia y estándares: Los usuarios no deberían tener que preguntarse si diferentes palabras, situaciones o acciones significan lo mismo. En la plataforma se deberán seguir una coherencia terminológica.
  • Prevención de errores: Es importante cuidar el diseño para evitar futuros errores cuando interactúe el usuario con el sistema.
  • Reconocer en lugar de memorizar: Minimizar la carga de memoria del usuario haciendo visibles los objetos, acciones y opciones. El usuario no tiene por qué recordar información de una ventana a otra.
  • Flexibilidad y eficiencia de uso: Uso de aceleradores (no apreciables por los usuarios) para disminuir el tiempo de interacción con los usuarios expertos y permitirles personalizar las acciones más frecuentes.
  • Diseño estético y minimalista: Los diálogos no deben contener información que sea irrelevante o innecesaria.
  • Ayudar a los usuarios a reconocer, diagnosticar y corregir errores: Los mensajes de error deben expresarse en lenguaje sencillo, indicar el problema concreto y sugerir constructivamente una solución.
  • Ayuda y documentación: Aunque es mejor que el sistema pueda utilizarse sin documentación, puede ser necesario ofrecer ayuda. Dicha información debe ser fácil de buscar, centrada en la tarea del usuario y no ser demasiado extensa.

Test A/B[editar]

Artículo principal: Test A/B

  1. Andreasen, Morten Sieker; Nielsen, Henrik Villemann; Schrøder, Simon Ormholt; Stage, Jan (2007). "Proceedings of the SIGCHI conference on Human factors in computing systems - CHI '07". p. 1405. doi:10.1145/1240624.1240838. ISBN 9781595935939.
  2. http://www.techved.com/blog/remote-usability
  3. Dray, Susan; Siegel, David (March 2004). "Remote possibilities?: international usability testing at a distance". Interactions 11 (2): 10–17. doi:10.1145/971258.971264.
  4. Chalil Madathil, Kapil; Joel S. Greenstein (May 2011). "Synchronous remote usability testing: a new approach facilitated by virtual worlds". Proceedings of the 2011 annual conference on Human factors in computing systems. CHI '11: 2225–2234.doi:10.1145/1978942.1979267. ISBN 9781450302289.
  5. "Heuristic Evaluation". Usability First. Retrieved April 9, 2013