Um robô poderia ser racista?

Por: Maria Alice Silva Santos Félix

A pergunta pode parecer simples, já que um robô é algo sem vida, sem sentimento. Mas, tecnologias de Inteligência Artificial (IA) são algoritmos programados por homens e mulheres reais, para atender a interesses e necessidades reais e, assim sendo, ele pode sim, expressar o racismo dos seus criadores ou ainda replicar o racismo estrutural da nossa sociedade.

Foto: Roberto CoelhoUm retrato adensado desse cenário, é apresentado pelo Projeto Tons de Gênero (tradução livre), realizado pelo Natural Science and Engineering Research Council of Canada (NSERC), que produziu em 2018 uma abordagem interseccional sobre a inclusão de raça e gênero na IA. Foi observado que mulheres negras têm uma menor chance de identificação facial checada. Além disso, o estudo expõe o direcionamento racista sob o qual a tecnologia tem sido fundamentada.

Um estudo da National Institute of Standards and Technology (NIST), de 2018, expôs que os algoritmos de IA aprimoraram sua eficácia em 25 vezes no reconhecimento facial de usuários. A taxa de erro hoje gira em torno de 0,2%. No entanto, esse número não é o mesmo para a população negra, e o quadro se agrava ao se tratar do perfil de mulheres negras. Em janeiro deste ano, por exemplo, o sistema do C6 Bank não reconheceu a face de um correntista negro, como expõe o artigo Money Times. Enfim, reconhecidos pela IA quando não deveriam ser, e não reconhecidos pela IA, quando deveriam ser!

Um importante agravante se coloca pois há uma tendência de essas tecnologias de reconhecimento facial serem utilizadas pela inteligência policial mundo afora. Dados levantados pela Rede de Observatórios de Segurança de março a outubro de 2019, indicaram 151 cidadãos presos a partir da tecnologia e reconhecimento facial nas regiões brasileiras Sul, Sudeste e Nordeste; 90,5% das pessoas abordadas eram negras.

Além da IA no reconhecimento biométrico, também o processo de machine learning pode agravar fenômenos relacionados ao racismo estrutural. Na medida em que se trata de uma tecnologia que “aprende” com o comportamento online dos usuários, se os usuários expressam um comportamento racista, o algoritmo pode aprofundá-lo ainda mais neste cenário. Assim sendo, acreditamos que, com o desenvolvimento desses algoritmos sem se ter uma intervenção oposta a práticas racistas, caminhamos para o acirramento de expressões do racismo estrutural em meio digital.

Essa seletividade racial está presente, por exemplo, no alcance das redes sociais. Testes feitos por influencers digitais no Instagram mostraram que o engajamento do perfil de influencers negras aumentou em 6.000% ao publicar fotos de mulheres brancas, publicado no site Negrê.

Com o que vimos, podemos dizer com segurança que os aparelhos e serviços high-tech não estão isentos de uma machine learning sem reverberações do racismo estrutural. Neste sentido, é preciso se estabelecer uma ética tecnológica que, além de não racista, seja anti-racista. Para isso, partimos da compreensão de que a tecnologia não é neutra, o treinamento de robôs utilizando dados humanos responde às dinâmicas econômicas, logo, no sistema capitalista, que visa o lucro e a proteção de bens, seja o reconhecimento facial para fins policiais ou criação de Escore de Risco para planos privados de saúde, a divisão social é reafirmada categoricamente. Cremos que o racismo estrutural que se expressa nas tecnologias distingue negativamente o alcance digital de pessoas com o fenótipo negro, reduzindo oportunidades e acentuando desigualdades.

Tendo em vista que, o perfil do trabalhador de tecnologia no Brasil é majoritariamente composto por homens brancos (De acordo com a PNAD (Pesquisa Nacional por Amostra de Domicílios) Contínua de 2019, o Brasil tem uma população majoritariamente negra composta por mulheres, 52% e 56% respectivamente. Já o mercado de trabalho em tecnologia, entretanto, é composto predominantemente pelo público masculino (73%) e a maioria dos cargos de liderança no setor é ocupada por brancos (56%), segundo a pesquisa Potências Negras Tec, realizada pela jornada Potências Negras e Shopper Experience, em 2021. Isso torna o nosso alerta ainda mais importante.) Temos um enorme desafio adiante. Enfrentemos!

 

REFERÊNCIAS

ANDERSON, Elisha. Controversial Detroit facial recognition got him arrested for a crime he didn’t commit. Disponível AQUI.

BARBOSA, Ana. Mulheres negras enfrentam barreira maior no mercado de tecnologia. O Estadão de S. Paulo. Disponível AQUI

LIDERANÇA mais feminina e negra: as metas de diversidade do iFood. Disponível em: AQUI

LYRA, Edgar. Uma Visão sobre Ética e IA. EMAPS-Resenhas #03. Rio de Janeiro, RJ - Brasil: SERG, Departamento de Informática, PUC-Rio, 2021. 18 p. Disponível AQUI.

MACIEL, Camila. Algoritmos: pesquisadores explicam tecnologia que intensifica racismo. Disponível AQUI

MATOS, Humberto. O Racismo Estrutural continua… Disponível AQUI

MORAIS, Yasmin. Digital Influencers denunciam racismo algorítmico do Instagram. Disponível AQUI:

NUNES, Renan. Racismo algorítmico: Tecnologias de reconhecimento facial se tornam um pesadelo para pessoas negras.Disponível AQUI.

SILVA, Tarcízio. Racismo algorítmico: inteligência artificial e discriminação nas redes digitais.