/i.s3.glbimg.com/v1/AUTH_63b422c2caee4269b8b34177e8876b93/internal_photos/bs/2024/o/s/5VoKVARCastQwsZrPXFA/arte06emp-111-subsnado-b6.jpg)
A Comissão Temporária de Inteligência Artificial do Senado aprovou na quinta-feira (5) o projeto de lei que regulamenta o uso de inteligência artificial (IA) no Brasil. A matéria começou a ser analisada no plenário, os senadores aprovaram requerimento de urgência, mas a votação ficou para a terça-feira (10).
O projeto é de autoria do presidente do Senado, Rodrigo Pacheco (PSD-MG), que tem como prioridade concluir a votação ainda este ano, enquanto estiver na presidência da Casa. O relator, Eduardo Gomes (PL-TO), apresentou sete versões do parecer e modificou o texto de forma significativa.
O relatório prevê a criação do Sistema Nacional de Regulação e Governança de Inteligência Artificial (SIA), para supervisionar o uso da IA no país. Com ele, a Autoridade Nacional de Proteção de Dados (ANPD) coordenará a atuação das agências reguladoras em cada setor.
Uma das principais alterações foi a retirada da chamada classificação de alto risco dos sistemas de IA utilizados pelas “big techs” – algoritmos para fins como o impulsionamento de conteúdo. Pelo texto, essa regulação deverá ser feita por meio de legislação específica.
O projeto prevê uma regulação mais rígida para atividades enquadradas na categoria de alto risco. Empresas que desenvolverem e operarem sistemas com essa classificação são obrigadas a avaliar e testar a segurança da tecnologia e a adotar medidas para evitar comportamentos discriminatórios.
Diferentemente do que previa o projeto de Pacheco, Gomes deu um caráter facultativo para as avaliações preliminares – feitas antes do lançamento – para novos sistemas de IA. Pelo texto, essa análise seria opcional, feita pelas empresas para determinar o grau de risco das novas tecnologias. A obrigatoriedade se mantém apenas para os sistemas generativos.
Fica sob responsabilidade do SIA regulamentar as IAs de alto risco. Mas foi retirado o trecho que previa a classificação por risco à integridade da informação, liberdade de expressão, processo democrático e pluralismo político, o que ainda poderia enquadrar as “big techs”.
Para Luã Cruz, coordenador do programa de Telecomunicações e Direitos Digitais do Instituto Brasileiro de Defesa do Consumidor (Idec), a regulação é branda no enquadramento das “big techs”.
“O PL falha em estabelecer uma estrutura regulatória robusta e equilibrada, que proteja os direitos dos cidadãos e promova o desenvolvimento tecnológico responsável. A regulação da inteligência artificial deveria priorizar a segurança, a privacidade e a dignidade da população, e não servir como uma carta branca para o lucro irrestrito das grandes empresas de tecnologia”, afirma Cruz.
Entre outros pontos, o texto proíbe o desenvolvimento de ferramentas que possam, por exemplo, “instigar ou induzir o comportamento da pessoa natural ou de grupos de maneira que cause danos à saúde, segurança ou outros direitos fundamentais”, assim como “explorar quaisquer vulnerabilidades” de pessoas ou grupos com o mesmo objetivo.
A utilização da biometria fica permitida apenas para a captura de fugitivos, cumprimento de mandados de prisão e flagrante de crimes com pena de mais de dois anos de prisão. Também há possibilidade, mediante decisão judicial, o uso para coletar provas em inquéritos policiais.
Caso as empresas não cumpram as normas, o projeto prevê suspensão parcial ou total das atividades, multa de até R$ 50 milhões ou 2% do faturamento, proibição de tratamento de determinadas bases de dados e proibição ou restrição para participar de “sandbox” regulatório por até cinco anos. “Sandbox” é um termo para ambiente controlado que permite fazer o trabalho sem riscos e interferência do mundo real.
O projeto prevê a cobrança de direitos autorais por conteúdos utilizados para abastecer bancos de dados de sistemas de IA. Segundo o projeto, os desenvolvedores de IA terão que remunerar os autores pelo uso de suas obras.
Fonte: Valor Econômico

