
Blog
O Caso do Viés Algorítmico: quando o reconhecimento facial falha

A Descoberta de Joy Buolamwini (MIT)
No meio dos anos 2010, a cientista da computação e artista ganense-americana Joy Buolamwini, pesquisadora no MIT Media Lab, estava trabalhando em um projeto que envolvia o uso de software de reconhecimento facial.
O sistema deveria reconhecer seu rosto para mapeá-lo em uma tela. O que ela descobriu foi pitoresco e preocupante:
- A Falha Inesperada: O software de reconhecimento facial não conseguia detectar seu rosto consistentemente. O sistema falhava repetidamente em reconhecê-la como um rosto humano válido.
- A Solução Curiosa: Frustrada, Buolamwini tentou usar uma máscara branca (no estilo de uma máscara de teatro grego). De repente, o software começou a funcionar perfeitamente. O computador reconhecia a máscara, mas não seu rosto real.
O Projeto Gender Shades e o Viés Algorítmico
Buolamwini percebeu que o problema não era sua máscara, mas a cor da sua pele. Ela lançou o projeto Gender Shades para testar os sistemas comerciais de reconhecimento facial de grandes empresas como Microsoft, IBM e Megvii.
O estudo revelou uma diferença de precisão chocante:
Grupo Testado
Precisão de Identificação (Média)
Homens de pele clara 99%
Mulheres de pele escura 65% (até 35% de erro!)
A Causa Pitoresca: O viés estava na base de dados usada para treinar os algoritmos de I.A. A grande maioria das imagens usadas para “ensinar” o software a reconhecer um rosto era de homens de pele clara. O algoritmo, essencialmente, não tinha sido treinado adequadamente para reconhecer mulheres e pessoas de pele escura, interpretando-as como “desvios” ou simplesmente falhando em vê-las.
Mas fica a dúvida: O que explica a questão do gênero da pessoa ? Veja os números acima!
Um estudo do NIST (Face Recognition Vendor Test (FRVT) – Part 3: Demographic Effects) confirmou esse viés.
O Impacto Recente
Essa descoberta recente (a história do Gender Shades se desenrolou entre 2017 e 2018) teve um impacto profundo:
- Revolução Industrial: Forçou as gigantes da tecnologia a revisarem urgentemente seus conjuntos de dados e a corrigirem os vieses. Empresas como a IBM até anunciaram que estavam parando de vender tecnologias de reconhecimento facial de uso geral por causa das preocupações éticas.
- O Novo Debate: A história de Joy Buolamwini e sua máscara branca se tornou um símbolo de como os vieses sociais podem ser codificados nos algoritmos, levando a disparidades e potencial para vigilância injusta, especialmente em grupos minoritários.
Essa é uma história pitoresca porque um simples acessório teatral expôs uma falha crítica na base da biometria de última geração.
O problema foi resolvido ? Muitas empresas alegam tem mudado os algoritmos para corrigir este problema. Acreditamos que a questão não tenha só a haver com a questão da composição das bases de treinamento. Pode ser que as características físicas de cada um influenciem, aliada a aspectos como os traços femininos.
Mas para uma população tão diversa como a brasileira, é de se desconfiar quando vemos um número elevado de reclamações em sites como o ReclameAqui. A boa notícia é que há formas de biometria que não tem esse viés, como a biometria digital, palmar ou pela íris.
#biometria #viesalgoritmico #biometriafacial
Gostou ? Leia mais artigos sobre biometria em nosso Blog
Acesse nosso site e saiba mais sobre nossa solução de biometria sem viés, aqui.











