O Brasil avança na regulamentação da IA com o PL 2.338/23, que busca proteger direitos fundamentais, promover inovação e garantir sistemas seguros. O projeto visa equilibrar tecnologia e direitos humanos

 

A sociedade está vivendo um desenvolvimento tecnológico sem precedentes na história, com a IA que se tornou uma das principais propulsoras desses avanços, em conjunto com a capacidade de processamento e de armazenamento de grandes bases de dados dos computadores, Big Datas,1 resultando na chamada data-driven, caracterizada pela tomada de decisões baseadas em dados.

 

Um exemplo notável do desenvolvimento disruptivo da IA é o computador quântico do Google, batizado Sycamore, com a capacidade de realizar um processamento em 200 segundos que demoraria 10 mil anos em um supercomputador tradicional, e assim deverá ser responsável pela revolução da ciência e das pesquisas de IA2-3.

 

Necessidade de regulamentação

 

Diante do novo cenário da IA no Brasil, a regulamentação desse campo se tornou necessária, uma vez que a IA incide em diversos setores da sociedade sem uma regulamentação especifica para estabelecer mecanismos de controle para utilização da tecnologia com intuito de salvaguardar que a tecnologia tenha como princípio e fim a pessoa (sociedade). Esse ponto é de suma importância, visto que a matéria prima utilizada para o desenvolvimento da IA são bases de dados, muito das vezes dados pessoais, assim como será a proteção desses dados pessoais e a responsabilidade civil em caso de violação de uma sério de direitos, entre eles, mas sem limitação, o direito autoral, direito de privacidade e direito de proteção de dados pessoais.

 

A necessidade da regulamentação da área não se trata de uma tentativa de barrar os avanços tecnológicos da IA, mas sim oferecer tanto um resguardo da preservação dos direitos e liberdades da sociedade, bem como para garantir segurança jurídica para que as próprias empresas do setor tenham uma base legal definida para nortear a sua atuação.

 

PL 2.338/23

 

Tramita no senado Federal, o PL 2.338/23, de autoria do senador Rodrigo Pacheco, que estabelece normas gerais para a regulamentação da IA. O PL busca proteger os direitos fundamentais e garantir a implementação de sistemas seguros e confiáveis, em prol da pessoa humana e do desenvolvimento científico e tecnologia, como próprio dispõe o art. 1 do PL.

 

A partir de um texto mais inclusivo, o art. 2º busca garantir que a implantação e o uso de sistema de IA no Brasil tenham como objetivo a garantia do bem-estar humano:

 

Art. 2º O desenvolvimento, a implementação e o uso de sistemas de inteligência artificial no Brasil têm como fundamentos:

 

  • a centralidade da pessoa humana;
  • o respeito aos direitos humanos e aos valores democráticos;
  • o livre desenvolvimento da personalidade;
  • a proteção ao meio ambiente e o desenvolvimento sustentável;
  • a igualdade, a não discriminação, a pluralidade e o respeito aos direitos trabalhistas;
  • o desenvolvimento tecnológico e a inovação; VII – a livre iniciativa, a livre concorrência e a defesa do consumidor;
  • a privacidade, a proteção de dados e a autodeterminação informativa;
  • a promoção da pesquisa e do desenvolvimento com a finalidade de estimular a inovação nos setores produtivos e no poder público; e
  • o acesso à informação e à educação, e a conscientização sobre os sistemas de inteligência artificial e suas aplicações

 

Observando os incisos acima expostos, é evidente que o legislador busca no PL, estabelecer determinadas limitações para o uso da tecnologia, com intuito de preservar a harmonia entre o incentivo ao desenvolvimento tecnológico e a valorização dos direitos humanos fundamentais, bem como do próprio trabalho humano, visto que o fato do uso de uma base de dados pré-existente, demonstra que a IA traz soluções com dados e informações do passado, ou seja, a IA não possui a criatividade de propor uma nova solução, não há uma evolução da capacidade decisiva baseada na ascensão cultural da sociedade.

 

Participação humana nas decisões

 

As soluções criativas ainda serão de responsabilidade do ser humano, por isso o enfoque do PL para que a IA tenha como finalidade a pessoa, e assim se tornar uma ferramenta que permita a automatização de atividades burocráticas, garantindo mais tempo para o raciocínio criativo e inovador do ser humano.

 

Seguindo essa premissa, o próprio artigo 3º do PL aborda que os sistemas decisões baseada em IA, serão auxiliares à decisão humana, pelo fato da IA não possui uma análise crítica de cada caso em específico, das peculiaridades envolvidas, para decidir baseada na boa-fé. Um exemplo é a celebração de um contrato: a IA não seria capaz de identificar a presença de clausulas gerais da boa-fé objetiva e da função social do contrato.

 

Contratos celebrados por sistemas de IA

 

Outro ponto interessante abordado no PL acerca dos contratos firmados por meio de sistemas de IA, são os direitos à informação e à compreensão, nesse caso o contratante possuiria o direito de receber, previamente à contratação, informações claras sobre as disposições  e aspectos do contrato, com um exemplo, mas sem limitação, a categoria de dados pessoais que será empregada, conforme previsto no art. 7º do PL, bem como a possibilidade de solicitar explicações em relação à decisão da IA, com a demonstração dos critérios e procedimentos utilizados.

 

Seguindo nessa linha, a pessoa também poderá contestar e solicitar revisão das decisões, recomendações ou previsões geradas pela IA que produzam efeitos jurídicos significativos ou que afetem de maneira expressiva os seus interesses, além da previsão de solicitar correções de dados incompletos ou solicitar a anonimização, bloqueio ou eliminação de dados dispostos em desconformidade com a legislação brasileiras, nos termos do art. 18 da LGPD. Caso, por exemplo, seja firmado por meio do sistema de IA um contrato com uma cláusula expressamente abusiva que vá de encontro à boa-fé, pode a pessoa afetada contestar tal decisão.

 

E como a ultima ratio, poderá ser solicitada a intervenção ou revisão humana, quando a decisão, previsão ou recomendação do sistema de IA gerar efeitos jurídicos expressivos ou que impactem de maneira significativa os interesses da pessoa. No entanto, é estabelecido no PL que será exigida a intervenção ou revisão humana nos casos em que a sua implementação seja comprovadamente impossível, hipótese pela qual o responsável pelo controle do sistema de IA deverá implementar medidas alternativa eficazes, com o intuito de garantir a reanálise da decisão contestada, a partir dos argumentos suscitados pela pessoa afetada.

 

O art. 11 do PL se atentou para possíveis decisões, previsões ou recomendações realizadas por sistema de IA que tenham um impacto irreversível ou de difícil reversão ou envolvam decisões que possam acarretar risco à vida ou à integridade física de indivíduos, deverá haver participação humana no processo decisório e determinação humana final.

 

Alinhamento com legislação europeia

 

O PL também segue a mesma linha do EU AI Act – Ato de Inteligência Artificial da União Europeia, no que diz respeito a classificação dos sistemas de IA de acordo com o risco, originalmente denominada de “risk-based approach”. O art. 17 do PL lista em seus incisos uma série de setores que são considerados de alto risco para o uso de sistemas de IA, que possuem um potencial lesivo à sociedade e aos direitos fundamentais, entre eles, mas sem limitação, aplicações na área da saúde ou na gestão e no funcionamento de infraestrutura críticas, tais como abastecimento de água e de eletricidade.

 

O grau de risco também influencia na responsabilidade civil do fornecedor ou operador de sistema de IA que cause dano patrimonial, moral, individual ou coletivo serão obrigados a repará-lo integralmente. Dito isso, caso o sistema de IA seja alto risco ou risco excessivo, o fornecedor ou operador responderão objetivamente pelos danos causados, na medida de sua participação. Se tratando de sistema de IA em geral, a culpa do fornecedor ou operador será presumida, aplicando-se a inversão do ônus da prova em favor da vítima.

 

Conclusão

 

Diante do texto do PL, é possível concluir que mesmo com possíveis mudanças, caso seja aprovado, se tornará um marco legal na regulamentação de novas tecnológicas e preencherá uma lacuna no ordenamento jurídico brasileiro, garantindo segurança jurídica nas relações com sistema de IA no país, sem que isso seja empecilho ao desenvolvimento da nova tecnologia no Brasil., uma vez que o PL também prevê medidas para fomentar a inovação e desenvolvimento tecnológico.

 

————————–

1 KAC, Larissa Andréa Carrasco; RODRIGUES, David Fernando; ARRUDA, Vinicius Cervantes G. (Coords.). Propriedade Intelectual e Revolução Tecnológica. São Paulo: Almedina, 2022.

 

2 Disponível em: https://revistagalileu.globo.com/Tecnologia/noticia/2019/10/google-atinge-supremacia-quantica-que-promete-revolucionar-computacao.html

 

3 Disponível em: https://revistagalileu.globo.com/Tecnologia/noticia/2019/10/google-atinge-supremacia-quantica-que-promete-revolucionar-computacao.html

 

Fonte: Migalhas

Deixe um comentário