Ícone do site Ecos da Noticia

Ministério debate viés de IA nos mecanismos de busca nas redes

Por Marina Dantas* — Os mecanismos de pesquisa nas redes sociais levam em consideração o refinamento das informações passadas pelos usuários às plataformas digitais e a aplicação de novos modelos de inteligência artificial (IA). Mas o outro lado dessa eficiência é o direcionamento da procura por meio dos algoritmos — que se prendem a modelos sem diversidade e induzem o internauta para padrões pré-definidos, inclusive raciais. É a partir daí que se manifesta o chamado “racismo algorítmico”.


O webinário promovido pelo Ministério da Igualdade Racial, em parceria com a Escola Nacional de Administração Pública (Enap), realizado quarta-feira, abordou o direcionamento discriminatório de mecanismos de busca. O debate esmiuçou as interações das plataformas digitais pela perspectiva racial, que facilitariam a propagação da desigualdade, da discriminação pela cor da pele e os discursos de ódio.


Segundo Tarcízio Silva, pesquisador de tecnologia e sociedade e membro da Fundação Mozilla, as redes atuam como “um mundo moldado pela supremacia branca”, que “realiza a ordenação algorítmica racializada de classificação social”. Para ele, é importante reconhecer a capacidade de sistemas algorítmicos de gerar e intensificar infrações aos direitos humanos.


Já a cientista da computação e pesquisadora Nina da Hora relata a falta de transparência nos processos e nos resultados apresentados pelas empresas usuárias de IA. Para ela, isso reduz o espaço para a diversidade na tecnologia.


Base de dados

Thiago de Paulo Faleiros, professor e doutor em Ciência da Computação da UnB, explica que é difícil categorizar as informações das inteligências artificiais por causa da dificuldade de acesso à base de dados que as plataformas utilizam. “Você pode imaginar o que acontece quando todo um conjunto de dados disponível na internet é compilado na plataforma. Se em nossa sociedade existem vários vieses racistas on-line, nesses dados também estarão presentes esse problema”, alerta.


Para o acadêmico, não é possível culpar as máquinas pelas respostas preconceituosas que podem ser geradas. “Não criminalizaria a máquina em si, mas sim os dados com que os algoritmos estão sendo treinados”, sugere.


O “racismo algorítmico” pôde ser percebido pela primeira vez em 2015. O Google, atualmente a principal plataforma de pesquisa e de e-mails na internet, marcou pessoas negras como “gorilas” no sistema de fotos Google Photos. À época, Yonatan Zunger, arquiteto-chefe de redes sociais da empresa, relatou que os problemas de identificação de imagem foram causados pelo processamento irregular de rostos obscurecidos e de diferentes processamentos de contraste para tons de pele e de luz.


Correio procurou o Google para saber que medidas adota para o combate ao racismo algorítmico. A empresa relatou que “tem um conjunto robusto de políticas para manter nossos usuários seguros, que devem ser seguidas por todos que utilizam nossas plataformas”.


Sair da versão mobile