Return to Video

Palestra 5.1: Avaliação Heurística - Por que e Como? (16:41)

  • 0:00 - 0:05
    Neste vídeo vamos introduzir uma técnica chamada Avaliação Heurística.
  • 0:05 - 0:11
    Como falamos no início do curso, há muitas maneiras diferentes para avaliar software.
  • 0:11 - 0:14
    Um que você pode estar mais familiarizado é o métodos empírico,
  • 0:14 - 0:19
    onde, de algum nível de formalidade, você tem pessoas reais testando o seu software.
  • 0:19 - 0:25
    Também é possível ter métodos formais, onde você está construindo um modelo
  • 0:25 - 0:28
    de como as pessoas se comportam em uma situação particular,
  • 0:28 - 0:32
    e que permite prever como as diferentes interfaces de usuário vão funcionar.
  • 0:32 - 0:36
    Ou, se você não pode construir um modelo de forma fechada formal,
  • 0:36 - 0:40
    você também pode experimentar a sua interface com simulação e ter testes automatizados -
  • 0:40 - 0:44
    que pode detectar erros de usabilidade e projetos eficazes.
  • 0:44 - 0:49
    Isto funciona especialmente bem para baixo nível de material, é mais difícil de fazer para nível superior coisas.
  • 0:49 - 0:52
    E o que vamos falar hoje é a crítica baseada na abordagens,
  • 0:52 - 1:00
    onde as pessoas estão lhe dando feedback diretamente, com base em sua experiência ou um conjunto de heurísticas.
  • 1:00 - 1:03
    Como qualquer um de vocês que já pegou uma arte ou aula de design sabe,
  • 1:03 - 1:06
    a crítica em pares pode ser uma forma extremamente eficaz de feedback,
  • 1:06 - 1:09
    e ele pode fazer você fazer seus projetos ainda melhor.
  • 1:09 - 1:12
    Você pode começar realmente a crítica em pares em qualquer fase do seu processo de design,
  • 1:12 - 1:17
    mas eu gostaria de destacar um casal que eu acho que pode ser particularmente valioso.
  • 1:17 - 1:21
    Primeiro, é realmente valiosa para obter a crítica em pares antes de testes de usuários,
  • 1:21 - 1:27
    porque isso ajuda a não desperdiçar os seus usuários em coisas que só vai ter pego automaticamente.
  • 1:27 - 1:30
    Você quer ser capaz de concentrar os recursos valiosos de testes com usuários
  • 1:30 - 1:34
    em coisas que outras pessoas não seriam capazes de pegar.
  • 1:34 - 1:37
    O feedback rico qualitativa que a crítica em pares fornece
  • 1:37 - 1:41
    também pode ser muito valioso antes de redesenhar sua aplicação,
  • 1:41 - 1:45
    porque o que ele pode fazer é que pode mostrar-lhe que partes do seu aplicativo que você provavelmente vai querer manter,
  • 1:45 - 1:49
    e quais são as outras partes que são mais problemáticos e merecem redesign.
  • 1:49 - 1:51
    Em terceiro lugar, às vezes, você sabe que há problemas,
  • 1:51 - 1:56
    e você precisa de dados para ser capaz de convencer outras partes interessadas para fazer as mudanças.
  • 1:56 - 2:00
    E a crítica em pares pode ser uma ótima maneira, especialmente se ela é estruturada,
  • 2:00 - 2:05
    ser capaz de obter o feedback que você precisa, para fazer as mudanças que você sabe que precisa acontecer.
  • 2:06 - 2:11
    E, finalmente, esse tipo de crítica em pares estruturada pode ser muito valioso antes de liberar software,
  • 2:11 - 2:16
    porque lhe ajuda a fazer um polimento final de todo o projeto, e suavizar as arestas.
  • 2:16 - 2:21
    Como a maioria dos tipos de avaliação, geralmente é útil começar com um objetivo claro,
  • 2:21 - 2:24
    mesmo se o que você finalmente aprender é completamente inesperado.
  • 2:26 - 2:31
    E assim, o que vamos falar hoje é uma técnica especial chamada avaliação heurística.
  • 2:31 - 2:35
    Avaliação Heurística foi criado por Jakob Nielsen e seus colegas, cerca de vinte anos atrás.
  • 2:36 - 2:42
    E o objetivo da avaliação heurística é ser capaz de encontrar problemas de usabilidade no design.
  • 2:43 - 2:44
    Eu aprendi sobre avaliação heurística
  • 2:44 - 2:50
    quando eu TA'd James Landay's Intro para curso HCI, e eu fui usá-lo e ensiná-lo desde então.
  • 2:50 - 2:54
    É uma técnica muito valiosa porque permite obter um feedback muito rápido
  • 2:54 - 2:58
    e é uma alta estratégia de bang-for-the-buck.
  • 2:58 - 3:02
    E os slides que eu tenho aqui são baseados nos slides de James para este curso,
  • 3:02 - 3:06
    e os materiais estão disponíveis no site Jacob Nielsen.
  • 3:06 - 3:10
    A idéia básica da avaliação heurística é que você está indo para fornecer um conjunto de pessoas -
  • 3:10 - 3:15
    muitas vezes, outras partes interessadas na equipe de projeto ou especialistas em design de fora -
  • 3:15 - 3:18
    com um conjunto de heurística ou princípios,
  • 3:18 - 3:23
    e eles vão usar aqueles para olhar para os problemas em seu projeto.
  • 3:24 - 3:26
    Cada um deles é o primeiro a fazer isso de forma independente
  • 3:26 - 3:31
    e assim eles vão passar por uma variedade de tarefas usando o design para olhar para estes bugs.
  • 3:33 - 3:37
    E você vai ver que diferentes avaliadores vão encontrar problemas diferentes.
  • 3:37 - 3:41
    E então eles vão se comunicar e conversar apenas no final, depois.
  • 3:43 - 3:47
    Ao final do processo, eles vão voltar a ficar juntos e conversar sobre o que encontraram.
  • 3:47 - 3:51
    E este "independente em primeiro lugar, reunir depois"
  • 3:51 - 3:57
    é como você começa a "sabedoria das multidões" vantagem em ter vários avaliadores.
  • 3:57 - 3:59
    E uma das razões que nós estamos falando sobre isso no início da aula
  • 3:59 - 4:05
    é que é uma técnica que você pode usar, ou em uma interface de usuário ou trabalhando em esboços de interfaces de usuário.
  • 4:05 - 4:10
    E avaliação, de modo heurística funciona muito bem em conjunto com protótipos de papel
  • 4:10 - 4:16
    e outras rápidas, técnicas de baixa fidelidade que você pode estar usando para conseguir suas idéias de design sair rápido e rápido.
  • 4:18 - 4:22
    Aqui estão dez heurísticas de Nielsen, e eles são um conjunto muito bom.
  • 4:22 - 4:25
    Dito isto, não há nada mágico sobre estas heurísticas.
  • 4:25 - 4:30
    Eles fazem um bom trabalho de cobertura de muitos dos problemas que você vê em muitas interfaces de usuário;
  • 4:30 - 4:33
    mas você pode adicionar em qualquer um que você quiser
  • 4:33 - 4:38
    e se livrar de qualquer um que não são apropriadas para seu sistema.
  • 4:38 - 4:41
    Nós estamos iremos para o conteúdo dessas dez heurísticas nas próximas duas palestras,
  • 4:41 - 4:46
    e nesta palestra que eu gostaria de apresentar o processo que você vai usar com estas heurísticas.
  • 4:46 - 4:49
    Então aqui está o que você vai ter seus avaliadores fazerem:
  • 4:49 - 4:52
    Dê-lhes um par de tarefas para usar o seu projeto,
  • 4:52 - 4:57
    e tê-los fazer cada tarefa, percorrendo várias vezes com cuidado.
  • 4:57 - 5:01
    Quando eles estão fazendo isso, eles vão manter a lista de princípios de usabilidade
  • 5:01 - 5:03
    como um lembrete de coisas para prestar atenção.
  • 5:03 - 5:06
    Agora que os princípios que você vai usar?
  • 5:06 - 5:09
    Eu acho que dez heurísticas de Nielsen é um começo fantástico,
  • 5:09 - 5:13
    e você pode aumentar aqueles com qualquer outra coisa que é relevante para o seu domínio.
  • 5:13 - 5:19
    Então, se você tiver objetivos do projeto em particular que você gostaria que seu projeto de alcançar, incluir aqueles na lista.
  • 5:19 - 5:22
    Ou, se você tem objetivos específicos que você configurou
  • 5:22 - 5:26
    a partir de análise da concorrência de projetos que já estão lá fora,
  • 5:26 - 5:27
    isso é ótimo também.
  • 5:27 - 5:33
    Ou, se há coisas que você já viu o seu ou outros projetos se destacam menos,
  • 5:33 - 5:37
    aqueles que são metas importantes e também pode ser incluído na sua lista de heurísticas.
  • 5:39 - 5:43
    E então, obviamente, a parte mais importante é que você vai pegar o que você aprendeu com esses avaliadores
  • 5:43 - 5:49
    e utilizar essas violações de heurísticas como uma forma de corrigir problemas e remodelação.
  • 5:49 - 5:55
    Vamos falar um pouco mais sobre por que você pode querer ter avaliadores múltiplos, em vez de apenas um.
  • 5:55 - 6:00
    O gráfico neste slide é uma adaptação da obra de Jacob Nielsen sobre avaliação heurística
  • 6:00 - 6:07
    e o que você vê é que cada quadrado preto é um bug que um avaliador particular encontrada.
  • 6:08 - 6:12
    Um avaliador individual representa uma linha desta matriz
  • 6:12 - 6:15
    e há cerca de vinte avaliadores neste conjunto.
  • 6:15 - 6:17
    As colunas representam os problemas.
  • 6:17 - 6:22
    E o que você pode ver é que há alguns problemas que foram encontrados pelos avaliadores relativamente poucos
  • 6:22 - 6:25
    e outras coisas que quase todo mundo encontrou.
  • 6:25 - 6:29
    Então, vamos chamar as coisas na direita de problemas fáceis e as coisas da esquerda de problemas difíceis.
  • 6:30 - 6:35
    E assim, no total, o que podemos dizer é que nenhum avaliador concluiu todos os problemas,
  • 6:35 - 6:41
    e alguns avaliadores consideraram mais do que outros, e assim há pessoas melhores e piores para fazer isso.
  • 6:43 - 6:45
    Então, porque não ter muitos avaliadores?
  • 6:45 - 6:49
    Bem, como você adicionar mais avaliadores, eles encontram mais problemas;
  • 6:50 - 6:53
    mas esse tipo de velas ao longo do tempo - você perde esse benefício eventualmente.
  • 6:54 - 6:58
    E assim a partir de uma perspectiva de custo-benefício é apenas deixar de fazer sentido depois de um certo ponto.
  • 6:59 - 7:01
    Então, onde está o pico da curva?
  • 7:01 - 7:04
    É, naturalmente vai depender de a interface de usuário que você está trabalhando,
  • 7:04 - 7:08
    quanto você está pagando as pessoas, quanto tempo está envolvido - todos os tipos de fatores.
  • 7:08 - 7:13
    A regra de ouro de Jakob Nielsen para estes tipos de interfaces de usuário e avaliação heurística
  • 7:13 - 7:19
    é que de três a cinco pessoas tende a funcionar muito bem, e que tem sido a minha experiência também.
  • 7:20 - 7:24
    E eu acho que definitivamente uma das razões que as pessoas utilizam a avaliação heurística
  • 7:24 - 7:28
    é porque pode ser uma maneira extremamente econômico encontrar problemas.
  • 7:29 - 7:32
    Em um estudo que Jacob Nielsen correu,
  • 7:32 - 7:37
    ele estimou que o custo dos problemas encontrados com a avaliação heurística foram 500.000 dólares
  • 7:37 - 7:41
    e o custo de realizá-lo foi um pouco mais de US $ 10.000,
  • 7:41 - 7:49
    e assim ele estima um 48 vezes relação custo-benefício para essa interface de usuário particular.
  • 7:49 - 7:55
    Obviamente, estes números são parte de trás do envelope, e sua milhagem pode variar.
  • 7:55 - 7:59
    Você pode pensar sobre como estimar o benefício que você recebe de algo parecido com isto
  • 7:59 - 8:03
    se você tiver uma ferramenta de software in-house usando algo parecido com aumentos de produtividade -
  • 8:03 - 8:07
    que, se você estiver fazendo um sistema de relatórios de despesas
  • 8:07 - 8:12
    ou outro sistema interno que fará com que o tempo das pessoas de forma mais eficiente usada -
  • 8:12 - 8:14
    isso é uma vitória grande usabilidade.
  • 8:14 - 8:18
    E se você tem o software que você está disponibilizando no mercado aberto,
  • 8:18 - 8:22
    você pode pensar sobre o benefício de vendas ou outras medidas como essa.
  • 8:24 - 8:28
    Uma coisa que podemos obter a partir desse gráfico é que os avaliadores têm maior probabilidade de encontrar problemas graves
  • 8:28 - 8:30
    e que é uma boa notícia;
  • 8:30 - 8:32
    e assim, com um número relativamente pequeno de pessoas,
  • 8:32 - 8:36
    você está muito provávelmente a tropeçar em coisas mais importantes.
  • 8:36 - 8:41
    No entanto, como vimos com apenas uma pessoa, neste caso particular,
  • 8:41 - 8:46
    mesmo o melhor avaliador encontrou apenas cerca de um terço dos problemas do sistema.
  • 8:46 - 8:51
    E é por isso que agrupando-se um número de avaliadores, digamos cinco,
  • 8:51 - 8:55
    vai levá-lo a maior parte do benefício que você será capaz de alcançar.
  • 8:56 - 9:00
    Se compararmos avaliação heurística e testes com usuários, uma das coisas que vemos ver
  • 9:00 - 9:07
    é que a avaliação heurística muitas vezes pode ser muito mais rápido - Leva apenas uma ou duas horas para um avaliador -
  • 9:07 - 9:11
    e os mecanismos de obtenção de um teste de usuário em funcionamento podem levar mais tempo,
  • 9:11 - 9:16
    nem mesmo representando o fato de que você pode ter que construir software.
  • 9:18 - 9:21
    Além disso, os resultados da avaliação heurísticos vem pré-interpretado
  • 9:21 - 9:26
    porque os avaliadores estão diretamente proporcionando-lhe problemas e coisas para corrigir,
  • 9:26 - 9:34
    e assim você economiza o tempo de ter que inferir a partir dos testes de usabilidade que podem ser o problema ou solução.
  • 9:36 - 9:39
    Agora por outro lado, especialistas caminhando através de seu sistema
  • 9:39 - 9:44
    pode gerar falsos positivos que não iria realmente acontecer em um ambiente real.
  • 9:44 - 9:50
    E isso de fato acontecer, e assim por testes de usuários é, de alguma forma, por definição, será mais exato.
  • 9:52 - 9:55
    No final do dia eu acho que é valioso para métodos alternativos:
  • 9:55 - 10:00
    Todas as técnicas diferentes que você aprenderá neste curso para receber feedback pode cada um ser valiosa,
  • 10:00 - 10:05
    e que [por] ciclismo através deles muitas vezes você pode obter os benefícios de cada um.
  • 10:05 - 10:11
    E isso pode ser porque com a avaliação do usuário e testes de usuários, você vai encontrar diversos problemas,
  • 10:11 - 10:15
    e executando HE ou algo parecido no início do processo do projeto,
  • 10:15 - 10:20
    você vai evitar o desperdício de usuários reais que você pode trazer mais tarde.
  • 10:21 - 10:25
    Portanto, agora que já vimos os benefícios, quais são os passos?
  • 10:25 - 10:30
    A primeira coisa a fazer é obter todos os seus avaliadores rapidamente,
  • 10:30 - 10:36
    sobre qual é a história por trás de seu software - qualquer conhecimento de domínio necessário que seja preciso -
  • 10:36 - 10:40
    e dizer-lhes sobre o cenário que você vai tê-los avançar.
  • 10:41 - 10:45
    Então, obviamente, você tem a fase de avaliação onde as pessoas estão trabalhando por meio da interface.
  • 10:45 - 10:50
    Depois, cada pessoa vai atribuir uma classificação de gravidade,
  • 10:50 - 10:53
    e você faz isso individualmente em primeiro lugar,
  • 10:53 - 10:56
    e então você vai agregá-los em uma classificação de gravidade do grupo
  • 10:56 - 11:00
    e produzir um relatório global a partir desse.
  • 11:01 - 11:06
    E, finalmente, uma vez que tenho este relatório global, você pode compartilhar isso com a equipe de design,
  • 11:06 - 11:10
    e a equipe de design pode discutir o que fazer com isso.
  • 11:10 - 11:13
    Fazer esse tipo de análise especializada pode ser muito cansativo,
  • 11:13 - 11:16
    e assim para cada um dos cenários que você colocar no seu design,
  • 11:16 - 11:22
    ele pode ser de grande valia para o avaliador percorrer esse cenário duas vezes.
  • 11:22 - 11:28
    A primeira vez, eles vão apenas ter uma noção de que, e pela segunda vez, eles podem se concentrar em elementos mais específicos.
  • 11:30 - 11:35
    Se você tem algum sistema de walk-up-and-use, como uma máquina de bilhete em algum lugar,
  • 11:35 - 11:39
    então você pode querer não dar às pessoas alguma informação de fundo a todas,
  • 11:39 - 11:42
    porque se você tem as pessoas que estão apenas começando para fora do ônibus ou do trem,
  • 11:42 - 11:45
    e eles caminham até a sua máquina sem qualquer informação prévia,
  • 11:45 - 11:49
    essa é a experiência que você quer que seus avaliadores tenham.
  • 11:49 - 11:53
    Por outro lado, se você vai ter um sistema de genômica ou outra interface de usuário especialista,
  • 11:53 - 11:57
    você vai querer ter certeza de que qualquer treinamento que você daria para os usuários reais,
  • 11:57 - 12:00
    você vai dar a seus avaliadores também.
  • 12:00 - 12:04
    Em outras palavras, qualquer que seja o fundo é, deve ser realista.
  • 12:06 - 12:09
    Quando os avaliadores estão caminhando através de sua interface,
  • 12:09 - 12:13
    isso vai ser importante para produzir uma lista de problemas muito específicos
  • 12:13 - 12:17
    e explicar os problemas no que diz respeito a uma das heurísticas de design.
  • 12:17 - 12:21
    Você não quer que as pessoas apenas para ser, tipo, "Eu não gosto disso."
  • 12:21 - 12:26
    E para maxilinearly anunciar-lhe estes resultados para a equipe de projeto;
  • 12:26 - 12:31
    você irá querer listar cada um destes separadamente, de modo que eles podem ser tratadas com eficiência.
  • 12:31 - 12:37
    Listas separadas também pode ajudá-lo a evitar listar o mesmo problema repetida uma e outra vez.
  • 12:37 - 12:42
    Se há um elemento repetido em cada única tela, você não quer listá-lo em cada tela;
  • 12:42 - 12:46
    você deseja listar uma vez de modo que possa ser fixada uma vez.
  • 12:47 - 12:52
    E estes problemas podem ser muito detalhados, como "o nome de alguma coisa é confusa,"
  • 12:52 - 12:56
    ou podem ser algo que tem de fazer mais com o fluxo da interface do utilizador,
  • 12:56 - 13:02
    ou a arquitetura da experiência do usuário e que não está especificamente ligada a um elemento da interface.
  • 13:03 - 13:07
    Seus avaliadores também podem achar que algo está faltando que deveria estar lá,
  • 13:07 - 13:11
    e isso pode ser algumas vezes ambígua com os primeiros protótipos, como protótipos de papel.
  • 13:11 - 13:17
    E assim você vai querer esclarecer se a interface do usuário é algo que você acredita ser completa,
  • 13:17 - 13:22
    ou se existem elementos intencionais falta antes do tempo.
  • 13:22 - 13:26
    E, claro, às vezes há funcionalidades que vão ser obviamente não existe
  • 13:26 - 13:28
    que estão implícitas na interface do usuário.
  • 13:28 - 13:32
    E assim, fora maduro, e relaxar sobre as pessoas.
  • 13:35 - 13:37
    Depois que seus avaliadores passaram a interface,
  • 13:37 - 13:41
    eles podem cada um independentemente atribuir uma classificação de gravidade para todos os problemas que eles encontraram.
  • 13:41 - 13:45
    E isso vai permitir que você alocar recursos para corrigir esses problemas.
  • 13:45 - 13:48
    Ela também pode ajudar a dar feedback sobre o quão bem você está fazendo
  • 13:48 - 13:51
    em termos de a usabilidade do seu sistema em geral,
  • 13:51 - 13:55
    e dar-lhe uma espécie de referência de seus esforços nesse sentido.
  • 13:56 - 14:01
    A medida de gravidade que seu avaliadores vão apresentar vai combinar várias coisas:
  • 14:01 - 14:05
    Vai combinar a freqüência, o impacto,
  • 14:05 - 14:09
    e a difusão do problema que eles estão vendo na tela.
  • 14:09 - 14:14
    Então, algo que só está em um lugar pode ser uma coisa menor
  • 14:14 - 14:19
    do que algo que aparece em toda a interface inteira.
  • 14:19 - 14:23
    Da mesma forma, não vão ser algumas coisas como texto desalinhado,
  • 14:23 - 14:28
    que pode ser deselegante, mas não são um assassino do negócio em termos de seu software.
  • 14:29 - 14:34
    E aqui é o sistema de classificação de gravidade que Nielsen criou, você pode, obviamente, usar qualquer coisa que você deseja:
  • 14:34 - 14:37
    Ele varia de zero a quatro,
  • 14:37 - 14:42
    onde zero é "no final do dia o seu avaliador decide que na verdade não é problema de usabilidade",
  • 14:42 - 14:48
    todo o caminho até ao fato de ser algo realmente catastrófico que tem que ser consertado imediatamente.
  • 14:49 - 14:51
    E aqui é um exemplo de um problema particular
  • 14:51 - 14:56
    que o nosso TA Robby encontrado quando ele estava tomando CS147 como um estudante.
  • 14:56 - 15:01
    Ele caminhou através da interface móvel de alguém que teve um "peso" elemento de entrada para ele;
  • 15:01 - 15:06
    e ele percebeu que uma vez que você entrou em seu peso, não há nenhuma maneira para editá-la após o fato.
  • 15:06 - 15:12
    Então, esse é o tipo de desajeitado, você gostaria de poder consertá-lo - talvez não um desastre.
  • 15:12 - 15:17
    E então o que você vê aqui é que ele listou o problema, ele deu-lhe uma classificação de gravidade,
  • 15:17 - 15:23
    ele tem a heurística que viola, em seguida, ele descreve exatamente o que é o problema.
  • 15:24 - 15:27
    E, finalmente, após todos os seus avaliadores passaram a interface,
  • 15:27 - 15:31
    listados seus problemas, e combinaram em termos de gravidade e importância,
  • 15:31 - 15:34
    você vai querer interrogar com a equipe de design.
  • 15:34 - 15:39
    Esta é uma boa oportunidade de poder discutir questões gerais na interface do usuário e feedback qualitativo,
  • 15:39 - 15:42
    e dá-lhe a oportunidade de passar por cada um desses itens
  • 15:42 - 15:46
    e sugerir melhorias sobre como você pode resolver esses problemas.
  • 15:48 - 15:51
    Nesta sessão debrief, pode ser valiosa para a equipe de desenvolvimento
  • 15:51 - 15:56
    para estimar a quantidade de esforço que seria necessário para resolver um destes problemas.
  • 15:56 - 16:01
    Assim, por exemplo, se você tem algo que é um em sua escala de gravidade e não um negócio muito grande -
  • 16:01 - 16:06
    que poderia ter algo a ver com a redação e da sua sujeira simples de resolver -
  • 16:06 - 16:08
    que lhe diz "vá em frente e corrija isso."
  • 16:08 - 16:11
    Por outro lado, você pode ter algo que é uma catástrofe
  • 16:11 - 16:15
    que leva muito mais esforço, mas a sua importância vai levar você a consertá-lo.
  • 16:15 - 16:20
    E há outras coisas em que a importância relativa para o custo envolvido
  • 16:20 - 16:23
    simplesmente não faz sentido tratar agora.
  • 16:23 - 16:27
    E esta sessão debrief pode ser uma ótima maneira de trocar idéias de design futuros,
  • 16:27 - 16:30
    especialmente quando você tem todos os interessados na sala,
  • 16:30 - 16:34
    e as idéias sobre quais são os problemas com a interface do usuário estão frescas em suas mentes.
  • 16:34 - 16:41
    Nos próximos dois vídeos vamos passar por dez heurística de Neilsons e falar mais sobre o que eles significam.
Title:
Palestra 5.1: Avaliação Heurística - Por que e Como? (16:41)
Video Language:
English
angelnoa added a translation

Portuguese subtitles

Revisions