Return to Video

Lecture 5.1: Heuristic Evaluation — Why and How? (16:41)

  • 0:00 - 0:05
    En este video vamos a introducir una técnica llamada Evaluación Heurística.
  • 0:05 - 0:11
    Como hemos hablado al principio del curso, hay un montón de maneras diferentes de evaluar el software.
  • 0:11 - 0:14
    Uno que podría estar más familiarizados con los métodos empíricos es,
  • 0:14 - 0:19
    donde, por cierto nivel de formalidad, hay personas reales probando el software.
  • 0:19 - 0:25
    También es posible disponer de métodos formales, donde se está construyendo un modelo
  • 0:25 - 0:28
    de cómo se comporta la gente en una situación particular,
  • 0:28 - 0:32
    y que le permite predecir la cantidad de interfaces de usuario diferentes funcionará.
  • 0:32 - 0:36
    O, si no se puede construir un modelo cerrado de forma oficial,
  • 0:36 - 0:40
    también puede probar la interfaz con la simulación y tienen pruebas automatizadas -
  • 0:40 - 0:44
    que puede detectar errores de usabilidad y diseños eficaces.
  • 0:44 - 0:49
    Esto funciona especialmente bien para los de bajo nivel de cosas, es más difícil de hacer para un mayor nivel de cosas.
  • 0:49 - 0:52
    Y lo que vamos a hablar hoy se basa la crítica de los enfoques,
  • 0:52 - 1:00
    donde la gente te está dando retroalimentación directa, con base en su experiencia o un conjunto de heurísticas.
  • 1:00 - 1:03
    Como cualquiera de ustedes que han tomado alguna vez un arte o conocimientos clase de diseño,
  • 1:03 - 1:06
    la crítica de los compañeros puede ser una forma muy efectiva de retroalimentación,
  • 1:06 - 1:09
    y puede hacer que usted hace sus diseños aún mejor.
  • 1:09 - 1:12
    Usted puede conseguir realmente la crítica por pares en cualquier etapa de su proceso de diseño,
  • 1:12 - 1:17
    pero me gustaría destacar un par que creo que puede ser muy valiosa.
  • 1:17 - 1:21
    En primer lugar, es muy valioso para conseguir crítica por pares antes de las pruebas de usuario,
  • 1:21 - 1:27
    porque eso ayuda a no perder a sus usuarios en cosas que sólo va a ser recogido de forma automática.
  • 1:27 - 1:30
    ¿Quieres ser capaz de enfocar los recursos valiosos de pruebas de usuario
  • 1:30 - 1:34
    en cosas que otra gente no sería capaz de captar.
  • 1:34 - 1:37
    La retroalimentación cualitativa rica que la crítica entre pares ofrece
  • 1:37 - 1:41
    También puede ser muy valioso antes de rediseño de su aplicación,
  • 1:41 - 1:45
    porque lo que se puede hacer es que puede mostrar qué partes de tu aplicación es probable que desee guardar,
  • 1:45 - 1:49
    y cuáles son otras partes que son más problemáticas y merecen rediseño.
  • 1:49 - 1:51
    En tercer lugar, a veces, usted sabe que hay problemas,
  • 1:51 - 1:56
    y lo que necesita datos para poder convencer a otros actores para hacer los cambios.
  • 1:56 - 2:00
    Y la crítica de los compañeros puede ser una gran manera, sobre todo si es estructurado,
  • 2:00 - 2:05
    para poder obtener la información que necesita, para hacer los cambios que usted sabe que es necesario que ocurra.
  • 2:06 - 2:11
    Y por último, este tipo de crítica peer estructurado puede ser muy valioso antes de liberar software,
  • 2:11 - 2:16
    porque le ayuda a hacer un lijado final de todo el diseño, y suavizar los bordes ásperos.
  • 2:16 - 2:21
    Al igual que con la mayoría de los tipos de evaluación, por lo general es útil comenzar con un objetivo claro,
  • 2:21 - 2:24
    incluso si lo que en última instancia, aprender es completamente inesperado.
  • 2:26 - 2:31
    Y así, lo que vamos a hablar hoy es una técnica especial llamada Evaluación Heurística
  • 2:31 - 2:35
    Evaluación Heurística fue creada por Jakob Nielsen y sus colegas, hace unos veinte años ahora.
  • 2:36 - 2:42
    Y el objetivo de la evaluación heurística es para ser capaz de encontrar problemas de usabilidad en el diseño.
  • 2:43 - 2:44
    Me enteré de Evaluación Heurística
  • 2:44 - 2:50
    cuando TA'd Intro James Landay a curso HCI, y lo he estado usando y enseñando desde entonces.
  • 2:50 - 2:54
    Es una técnica muy valiosa, ya que permite obtener información muy rápido
  • 2:54 - 2:58
    y es un gran bang-para-el-dinero estrategia.
  • 2:58 - 3:02
    Y las diapositivas que tengo aquí están basados en diapositivas de James para este curso,
  • 3:02 - 3:06
    y los materiales están disponibles en la página web Jacob Nielsen.
  • 3:06 - 3:10
    La idea básica de la evaluación heurística es que usted va a proporcionar un conjunto de personas -
  • 3:10 - 3:15
    a menudo otras partes interesadas en el equipo de diseño o de expertos externos de diseño -
  • 3:15 - 3:18
    con un conjunto de heurísticas o principios,
  • 3:18 - 3:23
    y que van a usarlos para buscar problemas en su diseño.
  • 3:24 - 3:26
    Cada uno de ellos por primera vez vamos a hacer esto de manera independiente
  • 3:26 - 3:31
    y por lo que voy a caminar a través de una variedad de tareas usando su diseño para buscar estos errores.
  • 3:33 - 3:37
    Y verás que diferentes evaluadores van a encontrar problemas diferentes.
  • 3:37 - 3:41
    Y luego van a comunicar y hablar juntos sólo al final, después.
  • 3:43 - 3:47
    Al final del proceso, que van a volver a estar juntos y hablar de lo que encontraron.
  • 3:47 - 3:51
    Y este "independiente en primer lugar, reunir después"
  • 3:51 - 3:57
    es la forma de conseguir una "sabiduría de las masas" beneficio en tener múltiples evaluadores.
  • 3:57 - 3:59
    Y una de las razones por las que estamos hablando de esta primera hora de la clase
  • 3:59 - 4:05
    es que es una técnica que se puede utilizar, ya sea en una interfaz de usuario que trabaja o en bocetos de interfaces de usuario.
  • 4:05 - 4:10
    Y evaluación de manera heurística funciona muy bien en conjunto con prototipos en papel
  • 4:10 - 4:16
    y otras técnicas rápidas y de baja fidelidad que puedan estar usando para obtener sus ideas de diseño fuera muy rápida.
  • 4:18 - 4:22
    Aquí hay diez Neilsen de heurística, y son un conjunto bastante bueno.
  • 4:22 - 4:25
    Dicho esto, no hay nada mágico en estas heurísticas.
  • 4:25 - 4:30
    Ellos hacen un buen trabajo de cubrir muchos de los problemas que se ven en muchas interfaces de usuario;
  • 4:30 - 4:33
    pero se puede añadir en cualquier que desee
  • 4:33 - 4:38
    y deshacerse de cualquiera que no son apropiados para su sistema.
  • 4:38 - 4:41
    Vamos a revisar el contenido de estos diez heurísticos en los próximos dos conferencias,
  • 4:41 - 4:46
    y en esta conferencia me gustaría presentar el proceso que se va a utilizar con estas heurísticas.
  • 4:46 - 4:49
    Así que esto es lo que vamos a tener los evaluadores hacer:
  • 4:49 - 4:52
    Dales un par de tareas a utilizar el diseño para
  • 4:52 - 4:57
    y hacer que cada tarea, paso a paso por varias veces con cuidado.
  • 4:57 - 5:01
    Cuando haces esto, van a mantener la lista de principios de usabilidad
  • 5:01 - 5:03
    como un recordatorio de lo que prestar atención.
  • 5:03 - 5:06
    Ahora que los principios se utilizarán?
  • 5:06 - 5:09
    Creo que diez heurísticas de Nielsen son un comienzo fantástico,
  • 5:09 - 5:13
    y usted puede aumentar aquellos con cualquier otra cosa que sea relevante para su dominio.
  • 5:13 - 5:19
    Por lo tanto, si usted tiene objetivos particulares de diseño que le gustaría que su diseño para lograr, incluyen los de la lista.
  • 5:19 - 5:22
    O, si usted tiene metas específicas que usted ha creado
  • 5:22 - 5:26
    de análisis de la competencia de diseños que están ahí fuera ya,
  • 5:26 - 5:27
    eso es genial.
  • 5:27 - 5:33
    O si hay cosas que has visto tu, u otros diseños sobresalen los casos,
  • 5:33 - 5:37
    esos son objetivos importantes también y puede ser incluido en su lista de heurísticas.
  • 5:39 - 5:43
    Y entonces, evidentemente, lo importante es que usted va a tomar lo que has aprendido de estos evaluadores
  • 5:43 - 5:49
    y utilizar esas violaciónes de la heurística como una forma de solucionar los problemas y rediseño.
  • 5:49 - 5:55
    Vamos a hablar un poco más acerca de por qué es posible que desee tener múltiples evaluadores en lugar de sólo uno.
  • 5:55 - 6:00
    El gráfico de esta diapositiva es una adaptación de la obra de Jacob Nielsen sobre evaluación heurística
  • 6:00 - 6:07
    y lo que vemos es cada cuadrado negro es un error que un determinado evaluador encontró.
  • 6:08 - 6:12
    Un individuo evaluador representa una fila de esta matriz
  • 6:12 - 6:15
    y hay una veintena de evaluadores en este conjunto.
  • 6:15 - 6:17
    Las columnas representan los problemas.
  • 6:17 - 6:22
    Y lo que puedo ver es que hay algunos problemas que fueron encontrados por los evaluadores relativamente pocos
  • 6:22 - 6:25
    y otras cosas que casi todo el mundo encuentra.
  • 6:25 - 6:29
    Así que vamos a llamar a las cosas en la derecha los problemas y las cosas fáciles a los problemas difíciles de izquierda.
  • 6:30 - 6:35
    Y así, en conjunto, lo que podemos decir es que ningún evaluador encontró todos los problemas,
  • 6:35 - 6:41
    y algunos evaluadores, más que otros, y por eso hay gente mejor y peor que se puede hacer esto.
  • 6:43 - 6:45
    ¿Por qué no tienen un montón de evaluadores?
  • 6:45 - 6:49
    Bueno, como agregar más evaluadores, que hacen encontrar más problemas;
  • 6:50 - 6:53
    pero es como que va disminuyendo con el tiempo - se pierde ese beneficio con el tiempo.
  • 6:54 - 6:58
    Y así, desde una perspectiva de costo-beneficio es simplemente deja de tener sentido después de un cierto punto.
  • 6:59 - 7:01
    ¿Y dónde está el pico de la curva?
  • 7:01 - 7:04
    Es, por supuesto, va a depender de la interfaz de usuario que está trabajando,
  • 7:04 - 7:08
    cuánto está pagando a la gente, cuánto tiempo está implicado - todo tipo de factores.
  • 7:08 - 7:13
    Jakob Nielsen regla de oro para este tipo de interfaces de usuario y la evaluación heurística
  • 7:13 - 7:19
    es que tres o cinco personas tiende a funcionar bastante bien, y esa ha sido mi experiencia también.
  • 7:20 - 7:24
    Y creo que, definitivamente, una de las razones por las que la gente utiliza la evaluación heurística
  • 7:24 - 7:28
    es porque puede ser una forma muy rentable de encontrar problemas.
  • 7:29 - 7:32
    En un estudio que Jacob Nielsen corrió,
  • 7:32 - 7:37
    se estima que el costo de los problemas encontrados con la evaluación heurística fueron $ 500.000
  • 7:37 - 7:41
    y el coste de su realización fue de poco más de 10.000 dólares,
  • 7:41 - 7:49
    y por lo que estima que un 48-fold relación costo-beneficio para esta interfaz de usuario en particular.
  • 7:49 - 7:55
    Obviamente, estos números son parte posterior del sobre, y su kilometraje puede variar.
  • 7:55 - 7:59
    Usted puede pensar en la forma de estimar el beneficio que se obtiene de algo como esto
  • 7:59 - 8:03
    si usted tiene una herramienta de software propio usando algo como aumentos de la productividad -
  • 8:03 - 8:07
    que, si usted está haciendo un sistema de informes de gastos
  • 8:07 - 8:12
    o de otro tipo en la casa-sistema que hará que el tiempo de la gente de manera más eficiente utilizado -
  • 8:12 - 8:14
    eso es una victoria usabilidad grande.
  • 8:14 - 8:18
    Y si tienes el software que usted está haciendo en el mercado abierto,
  • 8:18 - 8:22
    se puede pensar en el beneficio de las ventas u otras medidas por el estilo.
  • 8:24 - 8:28
    Una cosa que podemos obtener de ese gráfico es que los evaluadores tienen más probabilidades de encontrar problemas graves
  • 8:28 - 8:30
    y eso es una buena noticia;
  • 8:30 - 8:32
    y por lo tanto con un número relativamente pequeño de personas,
  • 8:32 - 8:36
    usted es bastante probable que tropezar con las cosas más importantes.
  • 8:36 - 8:41
    Sin embargo, como hemos visto con una sola persona, en este caso particular,
  • 8:41 - 8:46
    incluso mejor el evaluador encontró sólo alrededor de un tercio de los problemas del sistema.
  • 8:46 - 8:51
    Y por eso conjurando un número de evaluadores, digamos cinco,
  • 8:51 - 8:55
    te va a sacar el máximo provecho de los beneficios que se le va a ser capaz de lograr.
  • 8:56 - 9:00
    Si comparamos la evaluación heurística y pruebas de usuario, una de las cosas que vemos
  • 9:00 - 9:07
    es que la evaluación heurística puede ser a menudo mucho más rápido - Se tarda sólo una hora o dos para un evaluador -
  • 9:07 - 9:11
    y la mecánica de obtener una prueba de usuario en servicio puede tomar más tiempo,
  • 9:11 - 9:16
    not even accounting for the fact that you may have to build software.
  • 9:18 - 9:21
    Asimismo, los resultados de la evaluación heurística vienen pre-interpretado
  • 9:21 - 9:26
    ya que los evaluadores están directamente le proporciona problemas y cosas que arreglar,
  • 9:26 - 9:34
    y por lo que le ahorra el tiempo de tener que deducir de las pruebas de usabilidad lo que podría ser el problema o la solución.
  • 9:36 - 9:39
    Ahora, por el contrario, los expertos de caminar a través de su sistema
  • 9:39 - 9:44
    puede generar falsos positivos que en realidad no suceden en un entorno real.
  • 9:44 - 9:50
    Y este hecho se produce, por lo que es la prueba de usuario, más o menos, por definición, va a ser más preciso.
  • 9:52 - 9:55
    Al final del día, creo que es valioso a los métodos alternativos:
  • 9:55 - 10:00
    Todas las técnicas diferentes que se aprenden en esta clase para obtener retroalimentación cada uno puede ser valioso,
  • 10:00 - 10:05
    y que [por] el ciclismo a través de ellos a menudo se pueden obtener los beneficios de cada uno.
  • 10:05 - 10:11
    Y eso puede ser debido a que la evaluación de usuario y pruebas de usuario, usted encontrará diferentes problemas,
  • 10:11 - 10:15
    y mediante la ejecución de HE o algo así al principio del proceso de diseño,
  • 10:15 - 10:20
    podrás evitar el desperdicio de usuarios reales que usted puede traer en el futuro.
  • 10:21 - 10:25
    Así que ahora que hemos visto los beneficios, ¿cuáles son los pasos?
  • 10:25 - 10:30
    Lo primero que debe hacer es obtener todos los evaluadores a la velocidad,
  • 10:30 - 10:36
    sobre cuál es la historia detrás de su software - cualquier conocimiento del dominio necesario que puedan necesitar -
  • 10:36 - 10:40
    y decirles sobre el escenario que usted va a tener que dar un paso adelante.
  • 10:41 - 10:45
    Entonces, obviamente, tiene la fase de evaluación, donde la gente está trabajando a través de la interfaz.
  • 10:45 - 10:50
    Después, cada persona va a asignar una calificación de la gravedad,
  • 10:50 - 10:53
    y lo hace de forma individual en primer lugar,
  • 10:53 - 10:56
    y entonces usted va a agregarse aquellos en el nivel de gravedad del grupo
  • 10:56 - 11:00
    y elaborar un informe global de eso.
  • 11:01 - 11:06
    Y, por último, una vez que tienes este informe global, se puede compartir con el equipo de diseño,
  • 11:06 - 11:10
    y el equipo de diseño puede discutir qué hacer con eso.
  • 11:10 - 11:13
    Realizar este tipo de examen de expertos puede ser realmente agotador,
  • 11:13 - 11:16
    y así para cada uno de los escenarios que usted pone en su diseño,
  • 11:16 - 11:22
    puede ser valioso tener el evaluador pasar por esa situación dos veces.
  • 11:22 - 11:28
    La primera vez, que sólo va a tener una idea de ella, y la segunda vez, que pueden centrarse en elementos más específicos.
  • 11:30 - 11:35
    Si tienes algún sistema walk-up-and-uso, como una máquina expendedora de billetes en alguna parte,
  • 11:35 - 11:39
    entonces usted puede desear para no dar a la gente la información sobre mí en absoluto,
  • 11:39 - 11:42
    porque si hay gente que se acaba de bajar del autobús o el tren,
  • 11:42 - 11:45
    y se acercan a su máquina sin ninguna información previa,
  • 11:45 - 11:49
    esa es la experiencia que usted desea que sus evaluadores a tener.
  • 11:49 - 11:53
    Por otro lado, si vamos a tener un sistema genómico o de otro experto interfaz de usuario,
  • 11:53 - 11:57
    usted querrá asegurarse de que cualquier entrenamiento que le daría a los usuarios reales,
  • 11:57 - 12:00
    le vamos a dar a los evaluadores también.
  • 12:00 - 12:04
    En otras palabras, cualquiera que sea el fondo es, debe ser realista.
  • 12:06 - 12:09
    Cuando los evaluadores están caminando a través de su interfaz,
  • 12:09 - 12:13
    que va a ser importante para generar una lista de problemas muy específicos
  • 12:13 - 12:17
    y explicar los problemas con respecto a una de las heurísticas de diseño.
  • 12:17 - 12:21
    Usted no quiere que la gente sólo para estar, como, "No me gusta".
  • 12:21 - 12:26
    Y para maxilinearly que predica estos resultados para el equipo de diseño;
  • 12:26 - 12:31
    usted querrá una lista de cada uno de ellos por separado, para que puedan ser tratados eficazmente.
  • 12:31 - 12:37
    Listas separadas también puede ayudarle a evitar enumerar el mismo problema repetido una y otra vez.
  • 12:37 - 12:42
    Si hay un elemento que se repite en cada pantalla solo, no quiero enumerar en cada pantalla individual;
  • 12:42 - 12:46
    desea que lista una vez de modo que se pueda fijar de una vez.
  • 12:47 - 12:52
    Y estos problemas pueden ser muy detalladas, como "el nombre de algo es confuso",
  • 12:52 - 12:56
    o puede ser algo que tiene que ver más con el flujo de la interfaz de usuario,
  • 12:56 - 13:02
    o la arquitectura de la experiencia del usuario y que no está específicamente vinculada a un elemento de la interfaz.
  • 13:03 - 13:07
    Los evaluadores también puede encontrar que le falta algo que debería estar allí,
  • 13:07 - 13:11
    y esto puede ser a veces ambigua con los primeros prototipos, como prototipos de papel.
  • 13:11 - 13:17
    Y lo que usted desea que aclare si la interfaz de usuario es algo que usted cree que es completa,
  • 13:17 - 13:22
    o si hay elementos que faltan intencionales antes de tiempo.
  • 13:22 - 13:26
    Y, por supuesto, a veces hay rasgos que van a ser, obviamente, hay
  • 13:26 - 13:28
    que están implícitos en la interfaz de usuario.
  • 13:28 - 13:32
    Y así, de un suave y relajarse en ellas.
  • 13:35 - 13:37
    Después de que sus evaluadores han pasado a través de la interfaz,
  • 13:37 - 13:41
    cada uno puede asignar de forma independiente el nivel de gravedad de todos los problemas que he encontrado.
  • 13:41 - 13:45
    Y eso va para que pueda asignar recursos para solucionar esos problemas.
  • 13:45 - 13:48
    También puede ayudar a ofrecerle comentarios sobre lo bien que está haciendo
  • 13:48 - 13:51
    en términos de la facilidad de uso del sistema en general,
  • 13:51 - 13:55
    y darle una especie de punto de referencia de sus esfuerzos en este sentido.
  • 13:56 - 14:01
    Las unidades de medidas que los evaluadores van a salir con que va a combinar varias cosas:
  • 14:01 - 14:05
    Se va a combinar la frecuencia, el impacto,
  • 14:05 - 14:09
    y la omnipresencia del problema que estamos viendo en la pantalla.
  • 14:09 - 14:14
    Por lo tanto, algo que sólo está en un lugar puede ser mucho menos importante
  • 14:14 - 14:19
    que algo que aparece en la interfaz de usuario completa.
  • 14:19 - 14:23
    Del mismo modo, va a haber algunas cosas como el texto mal alineados,
  • 14:23 - 14:28
    que puede ser poco elegante, pero no es un asesino oferta en términos de su software.
  • 14:29 - 14:34
    Y aquí es el sistema de clasificación de gravedad que Nielsen creó, es obvio que puede usar cualquier cosa que desee:
  • 14:34 - 14:37
    Se extiende de cero a cuatro,
  • 14:37 - 14:42
    donde cero "al final del día su evaluador decide que en realidad no es un problema de usabilidad"
  • 14:42 - 14:48
    todo el camino hasta que sea algo realmente catastrófico que tiene que ser arreglados de inmediato.
  • 14:49 - 14:51
    Y he aquí un ejemplo de un problema particular
  • 14:51 - 14:56
    que nuestra TA Robby encontró cuando estaba tomando CS147 como estudiante.
  • 14:56 - 15:01
    Caminó a través de la interfaz móvil de alguien que tenía un "peso" elemento de entrada a la misma;
  • 15:01 - 15:06
    y se dio cuenta de que una vez que has introducido tu peso, no hay manera de corregir a posteriori.
  • 15:06 - 15:12
    Por lo tanto, eso es un poco torpe, te gustaría arreglarlo - tal vez no un desastre.
  • 15:12 - 15:17
    Y así, lo que se ve aquí es que ha enumerado el tema, que ha dado una clasificación de gravedad,
  • 15:17 - 15:23
    él tiene la heurística que viola, y luego describe exactamente cuál es el problema.
  • 15:24 - 15:27
    Y, por último, después de todos los evaluadores han pasado por la interfaz,
  • 15:27 - 15:31
    enumeraron sus problemas, y las ha combinado en términos de la gravedad e importancia,
  • 15:31 - 15:34
    usted querrá interrogarlo con el equipo de diseño.
  • 15:34 - 15:39
    Esta es una buena oportunidad para poder hablar de temas generales en la interfaz de usuario y la información cualitativa,
  • 15:39 - 15:42
    y le da la oportunidad de ir a través de cada uno de estos elementos
  • 15:42 - 15:46
    y sugerir mejoras de cómo se puede abordar estos problemas.
  • 15:48 - 15:51
    En esta sesión, interrogar, puede ser valioso para el equipo de desarrollo
  • 15:51 - 15:56
    para estimar la cantidad de esfuerzo que se necesitaría para reparar uno de estos problemas.
  • 15:56 - 16:01
    Así, por ejemplo, si tienes algo que es uno en su escala de gravedad y un trato no demasiado grande -
  • 16:01 - 16:06
    que podría tener algo que ver con la letra y de su suciedad fácil de fijar -
  • 16:06 - 16:08
    que le dice "adelante y arreglarlo."
  • 16:08 - 16:11
    Por el contrario, puede tener algo que es una catástrofe
  • 16:11 - 16:15
    que toma mucho más esfuerzo, pero su importancia se llevará a arreglarlo.
  • 16:15 - 16:20
    Y hay otras cosas en la importancia relativa de los costos involucrados
  • 16:20 - 16:23
    simplemente no tienen sentido para hacer frente a estos momentos.
  • 16:23 - 16:27
    Y esta sesión interrogar puede ser una gran manera de generar ideas de diseño futuras,
  • 16:27 - 16:30
    sobre todo cuando se tienen todas las partes interesadas en la habitación,
  • 16:30 - 16:34
    y las ideas sobre cuáles son los problemas con la interfaz de usuario están frescos en sus mentes.
  • 16:34 - 16:41
    En los próximos dos videos que vamos a ir a través de diez Neilsons 'heurística y hablar más sobre lo que significan.
Title:
Lecture 5.1: Heuristic Evaluation — Why and How? (16:41)
Video Language:
English
lvaraico edited Spanish subtitles for Lecture 4.1: Heuristic Evaluation — Why and How? (16:41)
lvaraico added a translation
Ambrose LI added a translation

Spanish subtitles

Revisions