Durante as audiências públicas sobre o uso da inteligência artificial (IA) no Judiciário, em Brasília, tive a oportunidade de participar e contribuir com um tema que considero fundamental para o futuro da Justiça no Brasil. A pesquisa apresentada pelo Conselho Nacional de Justiça (CNJ) revelou o panorama do uso da IA no sistema judiciário que reflete o crescimento acelerado dessa tecnologia.
De acordo com o levantamento, 27% dos magistrados e 31% dos servidores já utilizam ferramentas de IA generativa, como o ChatGPT, em suas atividades diárias. No entanto, mais de 70% dos entrevistados afirmaram que utilizam a tecnologia “raramente” ou “eventualmente”, o que demonstra que ainda estamos nos primeiros passos de sua incorporação nas rotinas de trabalho.
Desde 2020, quando o CNJ lançou as primeiras normas para regulamentar o uso da IA, muita coisa mudou. Hoje, em 2024, vemos uma IA generativa acessível a qualquer pessoa, diretamente de um celular. O Brasil, por exemplo, já é o quarto país do mundo que mais utiliza essa tecnologia (1), ficando à frente de nações como Alemanha e Reino Unido. Isso demonstra o quanto o cenário evoluiu e o potencial que temos em mão.
Durante minha fala na audiência, destaquei um ponto fundamental: não se trata de frear o avanço da tecnologia, mas sim de garantir que ele seja conduzido de maneira ética, segura e transparente. O uso da IA no Judiciário tem enorme potencial, mas também traz riscos. Falhas ou alucinações dessas ferramentas podem gerar impactos graves na vida das pessoas. Por isso, é essencial que o desenvolvimento e a implementação dessas tecnologias sejam acompanhados de práticas robustas de governança, auditoria e, sobretudo, transparência.
O processo de criação e o uso da IA deve incluir, desde o início, uma avaliação criteriosa dos riscos envolvidos. É preciso que o planejamento, a execução e até mesmo a descontinuidade de uma ferramenta de IA sigam critérios rigorosos de segurança, conformidade legal e respeito aos direitos fundamentais das pessoas. Essa é a única maneira de garantir que essas tecnologias sejam realmente confiáveis e que possam servir ao propósito maior de promover justiça.
Capacitação de profissionais
Outro ponto que considero imprescindível é a capacitação contínua dos profissionais que lidam com a IA. O uso dessa tecnologia exige conhecimento técnico para identificar e mitigar falhas, e isso só pode ser alcançado por meio de treinamentos adequados. Defendo a criação de comitês de risco dentro do CNJ, com o objetivo de monitorar o uso da IA de maneira preventiva. Esses comitês precisam ter planos de ação definidos para lidar com problemas antes que se tornem crises, evitando o caos e garantindo respostas rápidas e eficazes.
A proteção de dados, especialmente de grupos vulneráveis como crianças, adolescentes e idosos, é tema que sempre merece atenção redobrada. O uso inadequado de informações sensíveis pode trazer consequências desastrosas. Por isso, também considero a criação de uma política de IA que aumente a transparência para os usuários, com explicações claras e acessíveis sobre como a tecnologia está sendo utilizada, para quais finalidades e quem procurar em caso de dúvidas ou problemas. Considero ainda que as hipóteses de autorização de licença privada ou gratuita, para além dos juízes, deveriam ser ampliadas aos servidores.
Para que tudo caminhe em conformidade, é imprescindível a formatação de um Comitê de IA do CNJ que inclua representantes da Autoridade Nacional de Proteção de Dados (ANPD) e da sociedade civil. A presença de um representante da OAB também é recomendada, uma vez que o “advogado é indispensável à administração da Justiça”, de acordo com a própria Constituição (2).
A avaliação anual de riscos, conduzida por esse comitê, deve ser precedida de audiências públicas, garantindo a participação de especialistas e da sociedade como um todo. Esse envolvimento faz-se importante para aumentar a confiança nas ferramentas de IA e para garantir que a sua utilização esteja em consonância com os valores democráticos e com a promoção da própria Justiça.
A transparência é fundamental. Os erros identificados no uso de IA pelo Judiciário devem, sempre, ser tornados públicos. Dessa forma, podemos não apenas aprender com as falhas, mas também construir uma relação de confiança com a sociedade, que precisa saber como essas ferramentas estão sendo usadas e quais impactos podem gerar.
Busca por segurança e eficácia
Por fim, trouxe à discussão um projeto do Tribunal de Justiça do Ceará (TJ-CE), que pretende utilizar uma ferramenta de IA para avaliar o risco de revitimização de mulheres vítimas de violência doméstica. De acordo com a nova resolução proposta, essa IA seria classificada como de alto risco e, por isso, não poderia ser utilizada. Para ilustrar os riscos envolvidos, citei o exemplo da Espanha (3), onde uma ferramenta similar classificou erroneamente como “baixo risco” mulheres que, posteriormente, foram assassinadas por seus parceiros. Desde 2007, pelo menos 247 mulheres foram mortas após serem avaliadas por essa IA, evidenciando as graves falhas de sistemas mal regulamentados.
Esses exemplos deixam claro que precisamos de normas rigorosas para garantir que as ferramentas de IA sejam seguras e eficazes, especialmente em contextos tão delicados quanto o combate à violência doméstica.
Minha participação nas audiências públicas do CNJ foi uma oportunidade para destacar a urgência de atualizarmos as diretrizes para o uso da IA no Judiciário brasileiro. As propostas vão desde a melhoria da governança até a inclusão de grupos vulneráveis e uma maior participação da sociedade. São passos essenciais para garantir que as ferramentas de IA sejam verdadeiros aliados na promoção da justiça, sem que se tornem fontes de novos problemas. Precisamos caminhar juntos para que a tecnologia seja uma força positiva no Judiciário, sempre com ética, segurança e transparência como nossos pilares fundamentais e garantidores dos direitos fundamentais.
____________________
Referências
(1) Disponível em:
https://forbes.com.br/forbes-tech/2024/03/brasil-esta-entre-os-4-paises-que-mais-usam-o-chatgpt-veja-ranking/ – Acesso em 10.10.2024
(2) Artigo 133, da Constituição da República Federativa do Brasil de 1988. Disponível em https://www.planalto.gov.br/ccivil_03/constituicao/constituicao.htm – Acesso em 10/10/2024
(3) Disponível em: An Algorithm Told Police She Was Safe. Then Her Husband Killed Her. https://www.nytimes.com/interactive/2024/07/18/technology/spain-domestic-violence-viogen-algorithm.html – Acesso em 10/10/2024
Fonte: Conjur
Deixe um comentário