Nos últimos dois anos, ao menos seis processos por difamação foram abertos por empresas nos Estados Unidos, que alegam prejuízos inteligências artificiais criarem e publicarem informações falsas sobre essas organizações. Segundo os denunciantes, em alguns casos, mesmo após as big techs responsáveis pelas tecnologias serem notificadas, as divulgações falsas continuaram online.
É o caso da Wolf River Electric, empresa de energia solar em Minnesota. Funcionários da empresa notaram um aumento sem explicação de contratos cancelados. Uma apuração junto a ex-clientes revelou que eles cancelaram o serviço após descobrirem, via Google, “que a empresa teria feito um acordo judicial com o procurador-geral do estado por práticas comerciais enganosas”, destaca matéria do jornal New York Times. Entretanto, isso nunca aconteceu.
Ao checarem as buscas sobre a organização, perceberam que os resultados exibidos no topo pela Gemini, a IA do Google, mencionava o fictício acordo mencionado. Tentativas posteriores de retificar os dados falsos, por meio das ferramentas da gigante dos serviços online, fracassaram.
“Quando os clientes veem um alerta como esse, é praticamente impossível reconquistá-los”, declarou Justin Nielsen, fundador da Wolf River Electric, em entrevista ao jornal mencionado.
Como respostas, o porta-voz do Google, José Castañeda, reconheceu que “erros podem acontecer” por meio de qualquer nova tecnologia. No entanto, apesar de afirmar que problemas detectados são rapidamente corrigidos por lá, até a publicação da matéria no NY Times, a busca por “reclamação sobre a Wolf River Electric” trouxe o resultado contestado pela empresa de Minnesota.
Conteúdos gerado por IA: um desafio jurídico
O jurista Eugene Volokh, da Universidade da Califórnia em Los Angeles (UCLA), dedicou uma edição do Journal of Free Speech Law (Revista de Direito da Liberdade de Expressão, em tradução literal) para refletir sobre as difamações produzidas por IAs.
Conforme declarou ao NY Times, não há dúvida de que essa tecnologia cria informações prejudiciais. “A questão é: quem é o responsável por isso?”, questionou.
Em 2023, por exemplo, o apresentador de rádio e defensor do porte de armas, Mark Walters, moveu ação contra a OpenAI, responsável pelo ChatGPT, ao alegar que a IA havia respondido a um jornalista que Wlaters havia sido acusado de desvio de dinheiro.
“Frankenstein não pode criar um monstro que sai por aí matando pessoas e depois alegar que não tem nada a ver com isso”, defendeu John Monroe, advogado do radialista. O caso não foi a julgamento e acabou arquivado no último mês de maio –algo comum, já que, até o fechamento desta matéria, nenhum processo contra difamação por IA chegou ao tribunal.
Desde então, o único desfecho positivo para um denunciante envolve o influenciador de direita Robby Starbuck, que afirmou ter encontrado informações falsas sobre ele na rede social X, antigo Twitter, geradas por meio da Lhama, chatbot da Meta. Em agosto, e empresa liderada por Mark Zuckerberg fechou acordo com Starbuck, ao contratá-lo como consultor de políticas de moderação de IA. “A Meta tem feito grandes avanços para melhorar a precisão da Meta AI e reduzir vieses ideológicos e políticos”, divulgou a empresa na época, por meio de comunicado.
Segundo Nina Brown, professora de comunicação na Universidade de Syracuse, poucos casos como os citados na matéria chegarão a julgamento. “Suspeito que, se surgir um processo de difamação por IA em que o réu esteja vulnerável, ele vai desaparecer — as empresas vão buscar um acordo”, ponderou a docente, ao NY Times. “Elas não querem correr esse risco.”

