Nas últimas semanas, usuários do Twitter levantaram uma suspeita: o Twitter é racista? Ou, melhor, os algoritmos da rede social possuem comportamentos e fazem escolhas racistas?

O caso Twitter

Os usuários da rede social fizeram um experimento. Eles postaram vários exemplos de postagens com o rosto de uma pessoa negra e de uma branca e viram que a prévia do Twitter mostrava rostos de brancos com mais frequência. 

Em resposta, a plataforma informou, por meio da sua conta no Twitter:

“Testamos esse viés antes de enviar o modelo e não encontramos evidências de preconceito racial ou de gênero em nossos testes. Mas está claro que temos mais análises para fazer. Continuaremos a compartilhar o que aprendemos, quais ações tomamos e abriremos o código para que outros possam revisar e replicar”.

Mas, afinal, algoritmos são racistas? Máquinas e tecnologias em geral, podem ser ou apresentar comportamentos racistas, assim como nós, humanos?

O que são algoritmos

Os algoritmos estão presentes em toda a nossa vida. Quem já usou o Waze ou o Google Maps para se localizar ou então já ficou muito em dúvida sobre o que o queria ver na Netflix e, de repente, como mágica, o aplicativo sugeriu exatamente o que a pessoa queria assistir, já teve contato com algoritmos. A verdade é que os algoritmos estão tanto nas tecnologias como na nossa vida, porque eles são nada mais nada menos que uma receita – como uma receita de bolo -, ou seja, comandos e orientações programados para serem seguidos.

O computador não entende a nossa língua, como o português, então temos que passar as instruções em uma linguagem que ele possa entender. E é aí que os algoritmos entram. Eles traduzem a nossa língua para comandos que o computador possa compreender e realizar ações que os criadores de determinadas tecnologias determinam.

Mas, pense nos criadores dos aplicativos mais conhecidos do mundo: Mark Zuckerberg, do Facebook; Reed Hastings, da Netflix; Jack Dorsey, Biz Stone e Noah Glass, do Twitter; Mike Krieger, do Instagram; Ben Silbermann, do Pinterest; Travis Kalanick e Garrett Camp da Uber. O que eles têm em comum? Além de todos terem obtido muito sucesso com suas invenções, a grande maioria – senão todos – são brancos, heterossexuais e do hemisfério norte do mundo.

Muitas vezes, utilizamos aplicativos, redes sociais e dispositivos e enxergamos essas tecnologias descoladas dos seus fundadores. Muitos de nós nunca ouvimos falar deles, não sabemos quem e como são. E é justamente por isso que precisamos começar a olhar para as novas tecnologias de forma crítica, entendendo que, assim como nós, elas carregam a visão de mundo dos seus criadores. Afinal, são pensadas e estruturadas por pessoas com ideais, valores e vieses inconscientes (saiba mais sobre esse conceito neste outro texto do nosso blog). As tecnologias não são neutras.

Se as tecnologias não são neutras… Então, sim, algoritmos podem ser racistas

Não estamos falando que as novas tecnologias são como humanos. Mas elas reproduzem (e, em alguns casos, são capazes de desenvolver inteligência própria para tal) comportamentos que seus criadores programam. Dessa forma, elas carregam os olhares, intencionalidades e objetivos deles. E é aí que a situação se torna delicada.

Se as pessoas possuem vieses e preconceitos, eles também serão transmitidos através de suas criações. E se é o algoritmo o responsável por transmitir essa linguagem – que pode estar enviesada – ele pode enviar também, ao computador, códigos que possuem traços de qualquer tipo de discriminação, como gênero, idade e, claro… raça. Então, sim, algoritmos podem ser e alguns algoritmos são racistas. E isso está diretamente relacionado à falta de diversidade na origem de tudo: os CEOs, fundadores, desenvolvedores.

O racismo algorítmico é um conceito muito explorado pelo Tarcízio Silva. O Tarcízio é professor, Doutor em Ciências Sociais e Humanas e Diretor de Pesquisa do Instituto Brasileiro de Pesquisa e Análise de Dados. Ele desenvolve pesquisas nessa área e criou uma Linha do Tempo do Racismo Algorítmico, onde mostra que esse assunto não começa com o Twitter e já vem acontecendo há um bom tempo.

Em janeiro de 2010, as câmeras da Nikon não conseguiram entender rostos asiáticos. A Nikon desenvolveu um recurso que avisava se as pessoas estavam com olhos fechados e rostos pessoas asiáticas acabavam recebendo o alerta também. Em 2015, o Google Fotos tagueou pessoas negras como “gorilas”. Em 2016, foi denunciado que o sistema de anúncios do Facebook permitia excluir por raças (negros, latinos, asiáticos) nos Estados Unidos em categorias como habitação, o que é proibido por lei há décadas. Em 2019, uma pesquisa da George Institute of Technology revelou que carros autônomos têm mais chances de atropelar pessoas negras. Além de todos os casos – que aparecem constantemente – de falhas e as altas taxas de erros nos sistemas de reconhecimento facial desenvolvidos.

Como combater esse problema?

Geralmente nós achamos que computadores e algoritmos são neutros, mas já vimos que não é bem assim. Existem vieses estruturais e sistêmicos. Não é só matemática. Porque quem pensa a tecnologia, quem está nas posições de poder, quem cria e desenvolve, ainda são, em grande parte, as mesmas pessoas. Isso quer dizer que enquanto não houver diversidade de fato nesse processo, enquanto pessoas negras, por exemplo, não fizerem parte e se não existirem ações efetivas para que elas façam, o problema vai persistir.

Mas algumas iniciativas estão trabalhando para que a cena tecnológica seja mais diversa. Uma delas é a PretaLab, com foco em estimular a inclusão de meninas e mulheres negras e indígenas no universo das novas tecnologias. O objetivo é, de um lado, mostrar como a falta de representatividade é um problema não só para o ecossistema de tecnologia e inovação, mas para os direitos humanos e a liberdade de expressão. E, de outro, estimular referências positivas na busca que mais meninas e mulheres negras enxerguem as inovações, a tecnologia, as ciências como campos possíveis e interessantes de atuação.

A Liga de Justiça Algorítmica (em inglês Algorithmic Justice League) ou AJL, é uma iniciativa criada pela Joy Buolamnwini, uma cientista da computação ganense-americana, que tem como objetivo o combate ao viés algorítmico. Ela já conta com diversos membros ao redor do mundo, incluindo cidadãos, artistas, pesquisadores e ativistas. A AJL segue uma tríade de medidas para combater o viés algorítmico:

  1. Identificar o viés algorítmico ao desenvolver ferramentas para o teste de viés em algoritmos de aprendizagem de máquina;
  2. Mitigar o viés algorítmico ao desenvolver métodos para inclusão em amplo espectro durante o design, desenvolvimento, teste e distribuição de softwares;
  3. Chamar atenção através de materiais publicitários sobre o problema do viés algorítmico, o impacto causado por ele nos indivíduos afetados e outras informações importantes sobre este tema.

O Twitter não está sozinho. Por mais que tecnologias sejam criadas com intenções de ajudar o cotidiano das pessoas, ampliar a comunicação e facilitar a transmissão de informações, o universo tecnológico pouco diverso carrega inúmeros problemas – desde a sua criação até o uso pela sociedade em geral. Esse cenário precisa mudar. Transmitimos preconceitos de forma inconsciente e, por isso, somente através de equipes mais diversas criaremos ferramentas que, de fato, atendam às necessidades e possam ser usadas por todas as pessoas. Um futuro mais diverso depende disso. E futuro é agora.