Armadilhas comuns a evitar

Concluído

O percurso de que falámos para o ajudar a começar com o processo de análise pós-incidente é útil, mas pode também servir ara conhecer alguns dos obstáculos que pode encontrar neste percurso.

Nesta unidade, você descobrirá algumas armadilhas comuns nas quais outros caíram durante o processo de revisão pós-incidente e como evitá-las.

Armadilha 1: Atribuição a "erro humano"

Pode lembrar-se de que o "erro do piloto" (também conhecido como "erro humano") foi a conclusão a que os primeiros investigadores chegaram na história do B-17 que iniciámos na introdução do módulo. Voltemos a essa história.

Nessa introdução, sugerimos que as conclusões alcançadas podem ser insatisfatórias para si. Certamente não o foram para Alphonse Chapanis, um psicólogo militar a quem a Força Aérea dos EUA pediu para investigar estes incidentes. Entre outras coisas, ele reparou que estes incidentes eram exclusivos do B-17 e de uma quantidade limitada de outras aeronaves. Havia milhares de aviões de transporte C-47 em funcionamento na Europa Ocidental ao mesmo tempo, mas nenhum C-47 teve incidentes semelhantes.

Então ele entrevistou pilotos e, com base no que ouviu deles, foi e olhou para os cockpits do B-17. E neles, viu duas alavancas: a das mudanças e a das flapes. As alavancas tinham uma distância mais ou menos de 7,5 cm entre si no cockpit. O seu modo de funcionamento era idêntico. Era simplesmente demasiado fácil confundir uma com a outra, e foi isso que aconteceu nesses incidentes. Se você acabou de pousar um avião, suas abas serão estendidas e, antes de estacionar, você as retrairá. Por isso, Chapanis tentou algo de diferente.

Colou uma pequena roda de borracha à alavanca de mudanças e uma pequena "aba" angular rígida às flapes. E foi assim que os acidentes acabaram.

Ele agora é conhecido como um dos fundadores do campo da ergonomia - o estudo de fatores de design no desempenho humano - e tinha uma observação simples: o design do cockpit poderia afetar a probabilidade de erro humano. Esta abordagem serviu para influenciar o design das aeronaves modernas. Os dois interruptores nos aviões atuais são agora muito distintos, como manda a lei federal nos EUA.

Então, por que contamos essa história?

Os seres humanos cometem erros. No entanto, o erro humano não é uma causa, é um sintoma. Quando o erro humano é considerado o motivo de uma falha, as pessoas ficam-se por aí em vez de analisar melhor o incidente.

O design do sistema, o contexto organizacional e o contexto pessoal afetam quando, como e com que impacto as pessoas cometem erros. "Erro humano" é um rótulo que faz com que você pare de investigar exatamente no momento em que está prestes a descobrir algo interessante sobre seu sistema.

O problema com a conclusão do "erro humano" nas investigações é que ela faz com que você perca de vista o fato de que o que os humanos fizeram fazia sentido para eles na época. Os erros, por definição, não são deliberados, por isso não pretendiam errar.

Quando vemos ou ouvimos "erro humano", é um sinal de que precisamos olhar mais fundo. Se queremos aprender, não podemos deixar de investigar quando descobrimos um erro humano, o que é tão frequente. Como demonstra a história dos B-17, aprendemos coisas interessantes sobre o nosso sistema se formos mais além do erro humano.

Armadilha 2: Fundamentação contrafactual

Contrafactual significa "contrário aos fatos", e raciocínio contrafactual refere-se a contar uma história sobre eventos que não aconteceram para explicar os eventos que aconteceram. Apesar de isto não fazer muito sentido, as pessoas têm tendência para fazê-lo a toda a hora.

Pode identificar afirmações contrafactuais por expressões-chave:

  • Poderia
  • Deveria
  • Iria
  • Falhou em
  • Não
  • Se ao menos

Alguns exemplos de afirmações contrafactuais relativas a análises pós-incidente:

"O sistema de monitoramento não conseguiu detetar o problema."

"O engenheiro não verificou a validade da configuração antes de implementá-la."

"Isso poderia ter sido captado no ambiente canário."

O problema com esse tipo de raciocínio em uma revisão pós-incidente é que você está falando sobre coisas que não aconteceram, em vez de reservar um tempo para entender como o que aconteceu, aconteceu. Não se aprende nada com esta especulação.

Armadilha 3: Linguagem normativa

A linguagem normativa muitas vezes implica que houve um curso de ação "obviamente correto" que os operadores deveriam ter tomado, e julga as ações desses operadores com o benefício da visão retrospetiva.

A linguagem normativa geralmente pode ser identificada por advérbios como "inadequadamente", "descuidadamente", "apressadamente" e assim por diante.

O pensamento normativo leva-nos a julgar as decisões com base nos seus resultados. Esta forma de falar não é lógica, porque o resultado é a única informação que não estava disponível para aqueles que tomaram as decisões e julgamentos.

A linguagem normativa também pode ser aplicada no sentido oposto. As pessoas podem elogiar os operadores por atuarem de forma "apropriada", por exemplo. Mas, novamente, muitas vezes esse julgamento é feito com o benefício de informações que as pessoas em questão não tinham.

O problema da linguagem normativa é semelhante ao problema do raciocínio contrafactual: se fazemos julgamentos após o fato usando informações que não estavam disponíveis para os seres humanos envolvidos durante o incidente, negligenciamos entender como as ações dos operadores faziam sentido para eles na época.

Armadilha 4: Raciocínio mecanicista

O raciocínio mecânico refere-se à ideia de que um resultado particular pode ser inferido a partir da intervenção. Às vezes é chamada de síndrome das crianças intrometidas (cunhada por Jessica DeVita) com base na premissa de que "Nosso sistema teria funcionado bem... se não fossem aquelas crianças intrometidas."

Quando você usa o raciocínio mecanicista em sua revisão pós-incidente, você constrói suas conclusões sobre a falácia de que os sistemas com os quais você trabalha e dentro deles estão basicamente funcionando corretamente, e se apenas essas "crianças intrometidas" não tivessem feito o que fizeram, a falha não teria ocorrido.

No entanto, não é assim que os sistemas funcionam.

Para ilustrar esse ponto, imagine o seguinte cenário: você trabalha em um serviço de produção. Agora é-lhe dito que não lhe é permitido tocar ou fazer nada nesse serviço. Tudo fora da sua equipa continua como antes: os clientes continuam a usar o serviço, as dependências externas continuam a mudar, a Internet funciona normalmente.

Mas você não pode fazer nenhuma alteração no código ou na configuração. Nada de implementações, operações no plano de controlo, nada.

Acha que o seu serviço continuaria a funcionar conforme esperado passado um dia? Uma semana? Um mês? Um ano? Realisticamente, quanto tempo se poderia esperar que o serviço continuasse a funcionar sem intervenção humana? Na esmagadora maioria dos casos, não funcionaria.

Este raciocínio leva-nos a uma conclusão importante:

A capacidade de adaptação humana é necessária para manter os nossos sistemas em funcionamento.

O único motivo pelo qual os seus sistemas permanecem funcionais de todo são as ações humanas no ciclo de controlo. Só através da ação humana e da capacidade de adaptação às circunstâncias em mudança é que o sistema continua a funcionar.

Portanto, é errôneo concluir que o sistema estava "basicamente funcionando... se não fossem aquelas crianças intrometidas." Na verdade, a confiabilidade do seu serviço não é independente dos seres humanos que trabalham nele. Em vez disso, é um resultado direto do trabalho que os humanos fazem nele todos os dias.

O problema do raciocínio mecânico é que nos conduz por um caminho em que acreditamos que encontrar a falha humana equivale a encontrar o problema. No entanto, esse humano imperfeito improvisou e adaptou-se para manter o sistema em funcionamento durante semanas e meses. Talvez este papel seja suficientemente importante para se ter em conta na análise pós-incidente.

Agora que sabemos algumas coisas a evitar numa análise pós-incidente, podemos avançar para a próxima unidade e explorar algumas práticas úteis para essas análises.

Verifique o seu conhecimento

1.

Qual dos seguintes termos se refere a contar uma história sobre eventos que não aconteceram para explicar o que aconteceu?

2.

Erro humano é...