Em 2022, escrevi o artigo “Racismo algorítmico e os desafios da inteligência artificial” para o Olhar Digital. Nesse artigo, destaco que, “segundo dados da Rede de Observatório de Segurança, em 2019, cerca de 90,5% das pessoas detidas erroneamente por reconhecimento facial no Brasil foram negros”.
Com muitas polêmicas após a publicação, provoco nele a importância na elaboração de padrões diversos nos momentos de construção e validação da inteligência artificial (IA), para que, assim/então, tenhamos mais assertividade, imparcialidade e isonomia em seu uso.
Agora, em 2024, retomo este assunto para, mais uma vez, provocar o treinamento insuficiente de dados, mas, dessa vez, com outro recorte: o erro do reconhecimento facial no gênero de pessoas trans.
De acordo com o estudo da Universidade do Colorado, nos Estados Unidos, a taxa de acerto no reconhecimento facial de pessoas trans e não binárias é inferior a 60%, dado que contrapõe as taxas de acerto de 98,3% para mulheres cis e 97,6% para homens cisgêneros.
Sim, essa discussão não é simples.
Segundo o jornalista Pedro S. Teixeira, na matéria “Reconhecimento facial erra gênero de pessoas trans” para a Folha de S.Paulo, “a falha ocorre porque o algoritmo de identificação se baseia em medidas da face, como distância entre os olhos ou entre o nariz e o lábio superior e pode confundir o gênero da pessoa identificada”.
Aparentemente sem solução, o grupo de afinidade de pessoas trans do Publicis Groupe (Égalitrans), em parceria com a ONG Casarão, desenvolveu a API “Eu existo”, uma interface de programação de aplicações que tem a meta de treinar o algoritmo dos sistemas de reconhecimento facial e, assim, acabar, ou, ao menos, diminuir consideravelmente, as situações de falha.
O desafio, agora, é convencer as empresas sobre a importância da tecnologia, a inclusão da diversidade nos mecanismos de inteligência artificial e a exigência social para que todas as pessoas se sintam inseridas – respeitadas e contempladas – em qualquer avanço tecnológico e social.