O reconhecimento facial é um dos tópicos mais debatidos quando se fala em limites para IA (inteligência artificial) do ponto de vista ético. A tecnologia permite identificar pessoas por meio de imagens eletrônicas (fotos e vídeos).
Sabe quando o Facebook sugere marcar um amigo numa foto? É isso numa escala massiva e com a possibilidade de aplicação para vigilância.
Com apenas uma foto de rosto, é possível identificar um alvo específico por meio de câmeras. O recurso começa a aparecer em diferentes produtos: celulares, carros, portas de casa e de geladeiras, entre outros.
"Realmente precisamos de reconhecimento facial em lojas, bancos, todos os lugares? Não, provavelmente não. Talvez precisemos em lugares mais sensíveis, como no aeroporto ou perto de uma instalação nuclear", diz o italiano Luciano Floridi, professor da Universidade de Oxford.
O assunto desperta preocupações com privacidade. É possível identificar indivíduos em uma multidão por meio de imagens de câmera de segurança. Dessa forma é factível, por exemplo, listar quais foram as pessoas que participaram de uma manifestação.
Para montar os sistemas de reconhecimento são necessárias milhões de fotos para ensinar o computador o que é um rosto. Há quem retire conteúdo de redes sociais sem o consentimento das pessoas retratadas.
A Clearview, empresa americana que fornece essa tecnologia para a polícia, está sendo processada por extrair bilhões de imagens da internet sem permissão.
Essa aplicação, por outro lado, pode ser aliada da segurança pública. Pode, por exemplo, encontrar foragidos e combate tráfico sexual infantil.
A ferramenta Spotlight, segundo a ONG americana Thorn, a criadora da tecnologia, ajuda a identificar uma média de oito crianças desaparecidas por dia em anúncios de prostituição na internet.
Apesar de já ter evoluído o suficiente para, na média, ser mais preciso que seres humanos, um estudo do governo americano aponta que o reconhecimento facial tem dificuldade para identificar negros e asiáticos.
Foram considerados 189 algoritmos de 99 desenvolvedores em dois processos diferentes de reconhecimento facial.
No primeiro, o foco era dizer se uma pessoa de uma foto era a mesma em outra imagem. Os erros foram de 10 a 100 vezes maiores (dependendo do sistema) entre asiáticos e negros em relação a brancos.
No segundo, a partir de uma foto, o objetivo era identificar quem era o indivíduo. Nesse caso, os erros (dizer ser uma pessoa, mas ser outra) foram mais frequentes entre mulheres negras. Ao usar essa tecnologia para identificar criminosos, por exemplo, isso pode fazer com que um inocente seja acusado.
A inconsistência acontece porque os grupos de fotos usados por pesquisadores para treinar as IAs –processo em que o sistema é alimentado com milhões de imagens para ser calibrado– são predominantemente formados por pessoas brancas.