Ministério debate viés de IA nos mecanismos de busca nas redes

Por Marina Dantas* — Os mecanismos de pesquisa nas redes sociais levam em consideração o refinamento das informações passadas pelos usuários às plataformas digitais e a aplicação de novos modelos de inteligência artificial (IA). Mas o outro lado dessa eficiência é o direcionamento da procura por meio dos algoritmos — que se prendem a modelos sem diversidade e induzem o internauta para padrões pré-definidos, inclusive raciais. É a partir daí que se manifesta o chamado “racismo algorítmico”.


O webinário promovido pelo Ministério da Igualdade Racial, em parceria com a Escola Nacional de Administração Pública (Enap), realizado quarta-feira, abordou o direcionamento discriminatório de mecanismos de busca. O debate esmiuçou as interações das plataformas digitais pela perspectiva racial, que facilitariam a propagação da desigualdade, da discriminação pela cor da pele e os discursos de ódio.


Segundo Tarcízio Silva, pesquisador de tecnologia e sociedade e membro da Fundação Mozilla, as redes atuam como “um mundo moldado pela supremacia branca”, que “realiza a ordenação algorítmica racializada de classificação social”. Para ele, é importante reconhecer a capacidade de sistemas algorítmicos de gerar e intensificar infrações aos direitos humanos.


Já a cientista da computação e pesquisadora Nina da Hora relata a falta de transparência nos processos e nos resultados apresentados pelas empresas usuárias de IA. Para ela, isso reduz o espaço para a diversidade na tecnologia.


Base de dados

Thiago de Paulo Faleiros, professor e doutor em Ciência da Computação da UnB, explica que é difícil categorizar as informações das inteligências artificiais por causa da dificuldade de acesso à base de dados que as plataformas utilizam. “Você pode imaginar o que acontece quando todo um conjunto de dados disponível na internet é compilado na plataforma. Se em nossa sociedade existem vários vieses racistas on-line, nesses dados também estarão presentes esse problema”, alerta.


Para o acadêmico, não é possível culpar as máquinas pelas respostas preconceituosas que podem ser geradas. “Não criminalizaria a máquina em si, mas sim os dados com que os algoritmos estão sendo treinados”, sugere.


O “racismo algorítmico” pôde ser percebido pela primeira vez em 2015. O Google, atualmente a principal plataforma de pesquisa e de e-mails na internet, marcou pessoas negras como “gorilas” no sistema de fotos Google Photos. À época, Yonatan Zunger, arquiteto-chefe de redes sociais da empresa, relatou que os problemas de identificação de imagem foram causados pelo processamento irregular de rostos obscurecidos e de diferentes processamentos de contraste para tons de pele e de luz.


Correio procurou o Google para saber que medidas adota para o combate ao racismo algorítmico. A empresa relatou que “tem um conjunto robusto de políticas para manter nossos usuários seguros, que devem ser seguidas por todos que utilizam nossas plataformas”.


Compartilhar

Facebook
Twitter
WhatsApp
LinkedIn

Últimas Notícias