O caso de um homem afro-americano pego por um besouro em um programa de reconhecimento facial re-desenvolveu preocupações sobre o risco de inteligência artificial em meio a uma onda de protestos contra o racismo e a violência policial.
O caso remonta ao início de janeiro: Robert Williams foi preso em Detroit e passou 30 horas sob custódia porque o programa concluiu erroneamente que a foto na carteira de motorista e a imagem dos ladrões tirados pelas câmeras de vigilância eram idênticas,
De acordo com a American Civil Liberties Union (ACLU), que registrou uma reclamação em seu nome em 24 de junho, “embora este seja o primeiro caso conhecido, ele provavelmente não é a primeira pessoa a ser detida e ouvida com base em um problema de reconhecimento facial”.
Para Joy Buolamwini, fundador do grupo ativista Algorithmic Justice League, o caso revela “como o racismo sistêmico pode ser codificado e refletido na inteligência artificial (IA)”.
Sob pressão de grupos como as poderosas ACLU, Microsoft, Amazon e IBM, eles anunciaram no início de junho que as forças de segurança limitariam o uso de suas ferramentas de análise facial.
A IA é baseada no aprendizado automatizado dos dados inseridos por um programador e analisados por uma máquina. Se a matéria-prima estiver distorcida, o resultado será distorcido.
Um estudo do Instituto de Tecnologia de Massachusetts lançado em fevereiro de 2018 encontrou fortes imprecisões nos principais programas de reconhecimento facial quando se trata de diferenciar rostos por grupo populacional, com taxas de erro inferiores a 1% para homens brancos e até 35% para mulheres negras.
Binóculos e uma arma
Em um tweet que experimentou o vírus, Nicolas Kayser-Bril, da ONG Algorithm Watch, mostra que, diante de imagens de pessoas segurando um termômetro, o programa de análise de imagens Google Vision reconhece binóculos na mão branca e uma “arma” na mão preta.
Segundo ele, o viés “provavelmente decorre do fato de que as imagens usadas em um banco de dados envolvendo negros são mais frequentemente associadas à violência do que as dos brancos”.
O Google reconheceu que o resultado é “inaceitável”.
Esses programas, no entanto, estão sendo vendidos para empresas e governos em todo o mundo, não apenas para os gigantes da tecnologia.
“Isso dificulta a identificação das condições sob as quais o conjunto de dados é coletado, a qualidade da imagem e a maneira como o algoritmo é criado”, diz Seda Gürses, pesquisadora da Universidade de Delft, na Holanda.
Inúmeros fatores reduzem custos, mas complicam a distribuição de responsabilidades, de acordo com Gürses.
“Com o algoritmo, você é obrigado em todas as decisões pelo mesmo algoritmo, cuja qualidade é determinada pelos seus custos de produção e demanda do mercado.”
As tecnologias de reconhecimento de rosto não são usadas apenas para identificar suspeitos, mas também para prever o comportamento.
Recentemente, houve controvérsia sobre um programa que promete “prever com precisão de 80%” se uma pessoa pode cometer um crime “com base apenas em uma fotografia”.
Mais de 2.000 pessoas, incluindo vários cientistas, assinaram uma petição para a Springer Nature não publicar um artigo sobre essa tecnologia.
“Reconhecendo a preocupação” expressa pelo documento, Springer Nature disse que “em nenhum momento” ele concordou em publicá-lo.
Para Mutale Nkonde, pesquisador de inteligência artificial das universidades de Stanford e Harvard, “não se pode mudar a história do racismo e do sexismo”, mas “podemos garantir que não são os algoritmos que tomam as decisões finais”.