Especialistas que participaram de audiência pública no Senado sobre o projeto de lei que regulamenta a inteligência artificial (IA) defenderam mudanças no texto antes de ser votado na comissão temporária sobre inteligência artificial (CTIA).
Em debate realizado na quarta-feira (4), os participantes disseram temer que a proposta acabe desestimulando a inovação, a competitividade e, consequentemente, o desenvolvimento econômico e social do país por, segundo eles, não flexibilizar regras como as que que tratam da classificação do sistema de IA de “alto risco”.
O debate foi presidido pelos senadores Astronauta Marcos Pontes (PL-SP) e Chico Rodrigues (PSB-RR).
O Projeto de Lei (PL) 2.338/2023, do senador Rodrigo Pacheco (PSD-MG), presidente do Senado, tramita em conjunto com outras nove matérias sobre o tema e tem como relator o senador Eduardo Gomes (PL-TO). A CTIA é o único colegiado a analisar o projeto antes de ir a plenário.
Na avaliação de Pontes, é preciso produzir um texto atualizado, que não venha a se tornar obsoleto ao final da sua tramitação, que busque proteger os usuários, mas também garanta segurança jurídica para a indústria de IA e todos os mercados que fazem ou venham a fazer uso da tecnologia.
Classificação de risco
Para a vice-presidente de Política, Confiança, Dados e Tecnologia no Conselho da Indústria de Tecnologia da Informação de Washington, D.C, Courtney Lang, um dos pontos do projeto que pode ser revisto pela comissão está relacionado à classificação do sistema de inteligência artificial de alto risco. No entendimento dela, nem todo o uso de inteligência artificial, num contexto específico, necessariamente seria de alto risco, devendo o texto trazer uma definição clara de situações específicas em que a tecnologia seria classificada desta forma.
“Seria para incluir uma linguagem que tenha como alvo específico quando o sistema é de alto risco. Então, a comissão poderia acrescentar uma linguagem que indique que se a decisão do sistema de inteligência artificial não impacta significativamente a segurança, os direitos humanos, além dos serviços básicos, ele não deve ser considerado de alto risco. A comissão deve também considerar a adição de uma linguagem de filtro em torno de casos em que o sistema de inteligência artificial não é considerado de alto risco”, afirmou Lang.
O projeto cria regras diferentes para faixas regulatórias definidas de acordo com o risco à sociedade. O sistema de IA, assim, pode ser considerado de “risco excessivo”, que será proibido; de “alto risco”, que será controlado; ou não estar em nenhuma das duas categorias. Para determinar o risco, um sistema de IA deverá passar por uma avaliação preliminar feita pelos próprios desenvolvedores, fornecedores ou operadores.
O professor da Faculdade de Direito de Vitória (FDV) Luis Fernando Prado também manifestou preocupação com esse dispositivo. O projeto traz como necessárias dois tipos de avaliações de risco: as preliminares gerais, que são exigidas de todos os agentes como o desenvolvedor e o aplicador do sistema e a avaliação de impacto algorítmico.
A avaliação preliminar geral deve ser formalizada em registro, com o armazenamento de informações por cinco anos. Na opinião de Prado, o prazo pode ser mais flexível e se adequar às demandas das organizações.
“Eu acho que cabe aqui uma flexibilidade para que as organizações decidam qual o melhor formato dessa avaliação, como fazer essa avaliação de risco, e não necessariamente essa lei colocar essa obrigação tão abrangente e tão rígida ao ponto da gente ter que registrar e documentar isso por cinco anos”, disse o professor.
Direitos autorais
Ainda de acordo com Prado, o PL 2.338/2023 tem caminhado para ser uma das legislação mais restritivas do mundo em relação ao tema, até mesmo em comparação a lei da União Europeia. Ele cita entre os dispositivos que poderiam ser alvo de alterações o que trata de direitos autorais.
O projeto prevê normas sobre direitos autorais, que enfrentam desafios diante das IA generativas que produzem imagens e textos. Conteúdos protegidos por direitos autorais poderão ser utilizados no desenvolvimento do sistema de IA desde que obtidos de forma legítima e sem fins comerciais, observados outros requisitos.
Período de teste
A advogada da Confederação Nacional da Indústria (CNI) e especialista no tema, Christina Dias, afirmou que a proposta de regulamentação precisa eximir de penalidade e responsabilidade os sistemas que se encontram em operação de teste para não impedir a inovação na indústria, comércio e serviços.
“Porque, do contrário, vai acontecer o que falava o nosso diretor de inovação, ‘eu vou sentar para programar com um regulador do lado’. Ninguém no mundo faz isso, nem na Europa. Então essa falta de explicitação desse tipo de coisa no projeto nos remete a uma regulamentação que as pessoas falam que está mais restritiva do que a da União Europeia”, afirmou Dias.
Agência reguladora
A CNI também manifestou preocupação com a sobreposição regulatória entre a autoridade setorial e a autoridade central.
O projeto prevê um conjunto de órgãos que devem trabalhar de modo integrado com o intuito de regular o mercado da inteligência artificial. Eles integrarão o Sistema Nacional de Regulação e Governança de Inteligência Artificial (SIA), que será coordenado pela Autoridade Nacional de Proteção de Dados (ANPD), criada pela Lei 13.853, de 2019. O relator diz, no parecer, que o projeto prevê a regulação de uma forma mais genérica e atribui aos órgãos reguladores de cada setor da economia estipular regras mais específicas.
“Nós entendemos que isso é resolvido com o princípio da especialidade. Deve ficar para aquela agência ou aquela autoridade setorial, que tem maior especialidade na matéria para regular aquele setor que está para ser regulado, ou maior capacidade técnica. Uma autoridade só é que vai regular todo mundo?”, questionou Christina Dias.
Direitos e objetivos
O parecer apresentado por Eduardo Gomes tem 12 capítulos que englobam temas diretivos a serem observados, como transparência, cooperação internacional, crescimento inclusivo e proteção ao meio ambiente.
O projeto ainda assegura uma série de direitos para as pessoas que forem afetadas pelos sistemas de inteligência artificial, como:
- • Direito à informação prévia quanto a suas interações com sistemas de IA;
- • Direito à privacidade e à proteção de dados pessoais;
- • Direito à participação humana em decisões de IA, conforme o contexto.
(Com Agência Senado)