No final do ano passado, o Senado aprovou o PL que regulamenta a IA – Inteligência Artificial no Brasil; o texto agora segue para análise da Câmara dos Deputados.
A versão aprovada é substitutivo do senador Eduardo Gomes (PL-TO), derivado do PL 2.338/23 – apresentado pelo presidente do Senado, Rodrigo Pacheco (PSD-MG), com base em anteprojeto elaborado por uma comissão de juristas – e de dispositivos de outros projetos de lei, inclusive do PL 21/20, já aprovado pela Câmara dos Deputados, além de emendas de diversos senadores.
A IA, em síntese, é um campo da ciência da computação dedicado ao desenvolvimento de tecnologias capazes de reproduzir o comportamento humano na tomada de decisões e na realização de tarefas, possibilitando a execução de uma variedade de funções avançadas, incluindo a capacidade de ver, entender e traduzir idiomas, analisar dados e fazer recomendações.
Devido ao rápido avanço, aos riscos, receios e ao uso abusivo, surgiu a necessidade de criação de um marco legal para regulamentar os sistemas de IA, seus agentes (desenvolvedores, distribuidores e aplicadores da tecnologia) e os chamados “conteúdos sintéticos” (imagens, vídeos, áudios e textos), os quais passaram a ser significativamente modificados ou gerados por IA, objetivando equilibrar a garantia de preservação de direitos fundamentais e das condições para o desenvolvimento tecnológico.
Inspirado no modelo europeu, o projeto classifica os sistemas de IA em níveis de risco, conforme o seu impacto na vida humana e nos direitos fundamentais, prevendo uma regulamentação distinta para os sistemas de alto risco (como, por exemplo, aqueles utilizados em veículos autônomos, diagnósticos médicos, controle de fronteiras e tomada de decisões sobre recrutamento, avaliação, promoção e demissão de trabalhadores) e vedando o desenvolvimento de aplicações de IA que apresentem risco excessivo (como, por exemplo, os denominados “sistemas de armas autônomas”, capazes de selecionar e atacar alvos sem a intervenção humana, ou sistemas capazes de produzir ou disseminar material que caracterize abuso ou exploração sexual de crianças e adolescentes).
Entretanto, o texto manteve fora da lista de sistemas considerados de alto risco os “algoritmos das redes sociais”, conjunto de dados e regras que filtram e ranqueiam as postagens, determinando o direcionamento de conteúdo na linha do tempo de cada usuário.
Os sistemas classificados como de alto risco ficam sujeitos a: (i) avaliação de impacto algorítmico, de modo a determinar os riscos a direitos fundamentais, os benefícios do sistema, a probabilidade e a gravidade de eventuais consequências adversas e os esforços necessários para mitigá-las, as medidas de transparência e a lógica do sistema; (ii) realizar testes de confiabilidade e segurança; (iii) mitigar eventuais vieses discriminatórios, mediante uso de ferramentas de registro automático de operação para avaliação de desempenho e apuração de eventuais resultados discriminatórios; e (iv) adotar medidas que permitam explicar os resultados obtidos.
Já os sistemas conhecidos como de propósito geral (que podem lidar com diversas tarefas, podendo ser adaptados pelo usuário), como é o caso dos sistemas generativos (criadores de novos conteúdos, como texto, imagens, música, áudio e vídeos), terão regras próprias.
Além de realizarem uma avaliação preliminar de classificação de risco – que deverá identificar e mitigar eventuais riscos a direitos fundamentais, ao meio ambiente, à liberdade de expressão, à integridade da informação e ao processo democrático – deverão ser concebidos de modo a reduzir o consumo de energia e outros recursos e a produção de resíduos, bem como processar dados em conformidade com as exigências legais. Ademais, conteúdos sintéticos produzidos ou modificados via IA deverão conter identificador que permita verificar sua autenticidade e proveniência.
No que tange aos direitos autorais, o projeto assegura aos titulares o direito à remuneração pelo uso dos respectivos conteúdos em processos de mineração, treinamento e desenvolvimento de sistemas de IA que vierem a ser disponibilizados comercialmente.
Por outro lado, autoriza o uso gratuito de conteúdos protegidos em processos de mineração de textos para o desenvolvimento de sistemas de IA por instituições de pesquisa, de jornalismo, museus, arquivos, bibliotecas e organizações educacionais, desde que: (i) o material seja obtido de forma legítima e sem fins comerciais; (ii) o objetivo principal da atividade não seja a reprodução, exibição ou disseminação da obra; (iii) a sua utilização seja limitada ao necessário para alcançar a finalidade proposta; e (iv) os titulares dos direitos não tenham seus interesses econômicos prejudicados injustificadamente.
No campo das garantias pessoais, o projeto assegurou aos usuários o direito à explicação e revisão humana das decisões com impacto jurídico relevante, bem como impôs a proteção contra discriminação direta, indireta, ilegal ou abusiva aos sistemas de IA que façam uso de identificação biométrica.
Em contrapartida, foram excluídos do projeto os dispositivos que atribuíam à IA generativa a responsabilidade pela integridade da informação e que consideravam como critério para a regulamentação e identificação de sistemas de IA de alto risco, os riscos à integridade da informação, à liberdade de expressão, ao processo democrático e ao pluralismo político. O entendimento foi de que estes artigos poderiam servir de mecanismo voltado ao controle da liberdade de expressão e do acesso à informação.
O texto garante aos usuários o direito à informação prévia de que se está interagindo com sistemas de IA, à privacidade e proteção de dados pessoais, à não discriminação, bem como o uso de linguagem simples e clara sempre que destinados a crianças, adolescentes, idosos ou pessoas com deficiências. No caso de sistemas de alto risco, os usuários também terão direito à explicação sobre decisões tomadas por IA, sua contestação e revisão humana.
A atividade normativa complementar, fiscalizatória e sancionatória foi atribuída prioritariamente à ANPD – Autoridade Nacional de Proteção de Dados, na condição de coordenadora do SIA – Sistema Nacional de Regulação e Governança de Inteligência Artificial, a ser integrado por órgãos estatais de regulação setorial, entidades de autorregulação e de certificação, pelo Conselho de Cooperação Regulatória de Inteligência Artificial (fórum permanente de comunicação com órgãos e entidades da administração pública responsáveis pela regulação de setores específicos) e pelo Comitê de Especialistas e Cientistas de Inteligência Artificial (visando orientar e supervisionar o desenvolvimento e aplicação da IA).
Ao SIA caberá a regulamentação dos sistemas de alto risco, o reforço das competências das autoridades setoriais e da ANPD, a harmonização da atuação dos órgãos reguladores e a realização de estudos periódicos e elaboração de parecer, a cada quadriênio, destinado ao Congresso Nacional, indicando a necessidade de aprimoramento na legislação sobre IA.
Seguindo os parâmetros da LGPD – Lei Geral de Proteção de Dados Pessoais, o descumprimento das regras contidas no marco regulatório sujeitará o infrator ao pagamento de multas de até R$ 50 milhões ou 2% do faturamento bruto do grupo ou conglomerado, além de outras sanções, que vão desde mera advertência, até a proibição de tratar determinados dados e a suspensão parcial ou total, temporária ou permanente, do desenvolvimento, fornecimento ou operação do sistema, sem prejuízo da responsabilização civil pelos danos causados, com base no CC – Código Civil e/ou no CDC – Código de Defesa do Consumidor.
No âmbito do poder público, além de implementar as medidas previstas para todos os demais sistemas de IA, deverá haver o registro de quem os usou, em que situação e para qual finalidade, bem como dar preferência à utilização de sistemas interoperáveis.
O projeto prevê uma vacatio legis de dois anos para a maioria de seus dispositivos, exceção feita às regras sobre sistemas de propósito geral, aplicações proibidas e direitos do autor, que entrarão em vigor 180 dias após a publicação da lei, e às regras de incentivo à sustentabilidade e às pequenas empresas e de organização e atribuições dos órgãos reguladores – salvo sanções -, que terão aplicabilidade imediata.
A ANPD divulgou uma análise preliminar do projeto, externando sua preocupação com as sobreposições e os conflitos frente à LGPD, sobretudo aqueles relativos às atribuições legais da autoridade e à normatização específica sobre a proteção de dados pessoais nos chamados sandboxes de IA (ambientes controlados onde os sistemas de IA são desenvolvidos, testados e validados), salientando a importância de se assegurar que a ANPD seja a autoridade-chave na regulação e governança da IA no Brasil.
De fato, o texto ainda merece maior discussão e amadurecimento, tendo mantido e excluído alguns dispositivos polêmicos, que certamente serão objeto de revisão pela Câmara dos Deputados, mas é inegável que a aprovação do projeto pelo Senado foi um passo decisivo para assegurar o desenvolvimento e o uso responsável e seguro da IA no Brasil.
Fonte: Migalhas
Deixe um comentário