O Senado aprovou nesta quinta-feira (5), em votação simbólica, o projeto de lei 2.338/2023, que estabelece o marco regulatório da inteligência artificial (IA) no Brasil. A matéria segue agora para análise da Câmara dos Deputados.
Os senadores, Magno Malta (PL-ES), Cleitinho (Republicanos-MG), Hamilton Mourão (Republicanos-RS) e Eduardo Girão (Novo-CE) registraram voto contrário.
O projeto é de autoria do presidente do Senado, Rodrigo Pacheco (PSD-MG), e foi tratado como prioridade pelo parlamentar para que a votação ocorresse ainda este ano, enquanto o mineiro ainda está na presidência da Casa. O relator, Eduardo Gomes (PL-TO), no entanto, fez diversas alterações no texto e apresentou um total de sete pareceres da matéria.
O avanço foi costurado pelo relator junto aos líderes e se deu através de um acordo entre governo e oposição para a retirada de destaques apresentados para alterar a matéria.
O PL retirou o destaque que visava alterar as regras sobre direitos autorais. Com isso, ficou mantida a cobrança de direitos por conteúdos utilizados para abastecer bancos de dados de sistemas de IA obrigando desenvolvedores a remunerar os autores pelo uso de suas obras.
Pelo entendimento, o PT também retirou seu destaque, mantendo no texto uma das mudanças mais significativas do relator. Gomes retirou o trecho que incluía na chamada classificação de alto risco os sistemas de IA utilizados pelas chamadas “big techs” – algoritmos para fins como o impulsionamento de conteúdo. Pelo texto, essa regulação deverá ser feita por meio de legislação específica.
Pelo texto, as atividades enquadradas na classificação de alto risco estarão sujeitas a uma regulação mais rígidas para o exercício de suas atividades. As empresas que desenvolverem e operarem esses sistemas são obrigadas a avaliar e testar a segurança da tecnologia e a adotar medidas para evitar comportamentos discriminatórios.
Diferentemente do que constava no projeto de Pacheco, o relator estabeleceu caráter facultativo para as avaliações preliminares – feitas antes do lançamento – para novos sistemas de IA. Pelo texto, essa análise é opcional, feita pelas empresas para determinar o grau de risco das novas tecnologias. A obrigatoriedade se mantém apenas para os sistemas generativos – tecnologia capaz de criar novos conteúdos, como texto, imagens ou música, a partir de padrões aprendidos de dados existentes.
A responsabilidade de regulamentar as IAs de alto risco, segundo o texto, será do Sistema Nacional de Regulação e Governança de Inteligência Artificial (SIA). Apesar disso, foi suprimido o trecho que previa a classificação por risco à integridade da informação, liberdade de expressão, processo democrático e pluralismo político, o que ainda poderia enquadrar as “big techs”.
O texto estabelece a criação do Sistema Nacional de Regulação e Governança de Inteligência Artificial (SIA) que será responsável por supervisionar o uso da IA no país. A coordenação da atuação das agências reguladores de cada setor ficará a cargo da Autoridade Nacional de Proteção de Dados (ANPD).
Pelo texto, é vedado o desenvolvimento de ferramentas que possam, por exemplo, “instigar ou induzir o comportamento da pessoa natural ou de grupos de maneira que cause danos à saúde, segurança ou outros direitos fundamentais”, assim como “explorar quaisquer vulnerabilidades” de pessoas ou grupos com o mesmo objetivo.
A utilização da biometria fica permitida apenas para a captura de fugitivos, cumprimento de mandados de prisão e flagrante de crimes com pena de mais de dois anos de prisão. O texto também prevê a possibilidade, através de decisão judicial, o uso para coletar provas em inquéritos policiais.
Em caso de descumprimento das normas por parte das empresas, o projeto prevê suspensão parcial ou total das atividades, multa de até R$ 50 milhões ou 2% do faturamento, proibição de tratamento de determinadas bases de dados e proibição ou restrição para participar de “sandbox” regulatório por até cinco anos. “Sandbox” é um termo para ambiente controlado que permite fazer o trabalho sem riscos e interferência do mundo real.
Para o professor e pesquisador de IA da Universidade Federal de Goias (UFG), Celso Camilo, o Brasil deveria apertar o passo na regulação da IA para garantir um lugar na corrida global por investimentos em inovação. “Mais do que perfeita, a regulamentação precisa ser feita”, disse Camilo, ao Valor.
O especialista observa que o Brasil tem uma oportunidade de ganhar vantagem entre países em desenvolvimento na atração de investimentos em IA, se for rápido. “Apesar das dificuldades, vejo que o Brasil tem um espaço e um momento únicos de realmente executar estratégias de IA. É só uma questão da gente acelerar”.
Sobre a pressão de grandes empresas de tecnologia para aliviar as regulações em torno da IA no Brasil e no mundo, o professor diz defender um balanceamento entre linhas de regulação “pró-mercado, mais liberais e com menos regulação, pró-direitos humanos, mais restritas, e um híbrido entre as duas correntes”.
“Acredito que temos que balancear e IA não pode ser regulada de forma amadora, mas precisamos avançar um pouquinho mais rápido do que a gente pensa e entender que a regulação não vai ser perfeita”, afirma.
Entre os maiores desafios da IA, Camilo destaca os vieses dos algoritmos, a transparência sobre como os dados que treinam os modelos de IA são tratados e o conhecimento necessário para que as pessoas tenham acesso à IA.
Além de ser mais rápido na regulação da IA, o especialista nota que o país deve acelerar a execução de iniciativas como o Plano Brasileiro de Inteligência Artificial (PBIA), anunciado em junho. Para ele, o PBIA é um bom plano, mas há dificuldades no tempo de execução em escala. “Essa não é uma questão isolada do Brasil, mas do grupo de países em desenvolvimento onde há uma dificuldade muito grande em executar os planos e em priorizar a área de ciência e tecnologia, que não é tradicional nesses países”, diz. Na UFG, Camilo vem trabalhando para acelerar projetos de IA que unem os setores acadêmico, público e privado.
Fonte: Valor Econômico

