Brasil
Especialistas defendem mudanças no projeto que regulamenta IA
O projeto cria regras diferentes para faixas regulatórias definidas de acordo com o risco à sociedade
Especialistas que participaram da audiência pública sobre o projeto de lei que regulamenta a inteligência artificial (IA) defenderam mudanças no texto antes de ser votado na comissão temporária sobre inteligência artificial (CTIA). Em debate na quarta-feira (4) os debatedores disseram temer que a proposta acabe desestimulando a inovação, a competitividade e, consequentemente, o desenvolvimento econômico e social do país por, segundo eles, não flexibilizar regras como as que que tratam da classificação do sistema de IA de “alto risco”. O debate foi presidido pelos senadores Astronauta Marcos Pontes (PL-SP) e Chico Rodrigues (PSB-RR).
O Projeto de Lei (PL) 2.338/2023, do senador Rodrigo Pacheco (PSD-MG), presidente do Senado, tramita em conjunto com outras nove matérias sobre o tema e tem como relator, o senador Eduardo Gomes (PL-TO). A CTIA é o único colegiado a analisar o projeto antes de ir a Plenário.
Na avaliação de Pontes, é preciso produzir um texto atualizado, que não venha a se tornar obsoleto ao final da sua tramitação, que busque proteger os usuários, mas também garanta segurança jurídica para a indústria de IA e todos os mercados que fazem ou venham a fazer uso da tecnologia.
— Uma legislação como essa, por se tratar de uma tecnologia que se desenvolve muito rapidamente, se não tivermos cuidado com o texto principal, corre o risco de ficar obsoleto minutos depois de ser promulgado. Então é necessário esse cuidado, é necessário proteger as pessoas, logicamente, através dessa análise de riscos, mas também é necessário proteger nosso mercado, ajudar no desenvolvimento das empresas aqui no Brasil, o desenvolvimento dessa tecnologia no Brasil. Isso então, a redução das restrições e também tirar do texto tudo aquilo que não for concernente a tecnologia da Inteligência Artificial.
Classificação de risco
Para a vice-presidente de Política, Confiança, Dados e Tecnologia no Conselho da Indústria de Tecnologia da Informação de Washington, D.C, Courtney Lang, um dos pontos do projeto que pode ser revisto pela comissão está relacionado a classificação do sistema de inteligência artificial de alto risco. No entendimento dela, nem todo o uso de inteligência artificial, num contexto específico, necessariamente seria de alto risco, devendo o texto trazer uma definição clara de situações específicas em que a tecnologia seria classificada desta forma.
— Seria para incluir uma linguagem que tenha como alvo específico quando o sistema é de alto risco. Então a comissão poderia acrescentar uma linguagem que indique que se a decisão do sistema de inteligência artificial não impacta significativamente a segurança, os direitos humanos, além dos serviços básicos, ele não deve ser considerado de alto risco. A comissão deve também considerar a adição de uma linguagem de filtro em torno de casos em que o sistema de inteligência artificial não é considerado de alto risco.
O projeto cria regras diferentes para faixas regulatórias definidas de acordo com o risco à sociedade. O sistema de IA, assim, pode ser considerado de “risco excessivo”, que será proibido; de “alto risco”, que será controlado; ou não estar em nenhuma das duas categorias. Para determinar o risco, um sistema de IA deverá passar por uma avaliação preliminar feita pelos próprios desenvolvedores, fornecedores ou operadores.
O professor da Faculdade de Direito de Vitória (FDV) Luis Fernando Prado também manifestou preocupação com esse dispositivo. O projeto traz como necessárias dois tipos de avaliações de risco: as preliminares gerais, que são exigidas de todos os agentes como o desenvolvedor e o aplicador do sistema e a avaliação de impacto algorítmico.
A avaliação preliminar geral deve ser formalizada em registro, com o armazenamento de informações por cinco anos. Na opinião de Prado, o prazo pode ser mais flexível e se adequar as demandas das organizações.
— Eu acho que cabe aqui uma flexibilidade para que as organizações decidam qual o melhor formato dessa avaliação, como fazer essa avaliação de risco, e não necessariamente essa lei colocar essa obrigação tão abrangente e tão rígida ao ponto da gente ter que registrar e documentar isso por cinco anos.