A Lei nº 13.709/2018, conhecida como LGPD (Lei Geral de Proteção de Dados), orienta, nos meios físicos ou digitais, as atividades com dados pessoais, realizadas por pessoa natural com fins econômicos ou por pessoa jurídica de direito público ou privado, de modo a garantir, entre outros, os direitos fundamentais à liberdade, à privacidade e ao livre desenvolvimento da personalidade da pessoa natural, concomitantemente ao desenvolvimento econômico e tecnológico, bem como à inovação. Por essa razão, uma de suas principais características é ter conceitos amplos, que permitam sua aplicação nas mais diversas áreas que podem fazer uso de informações das pessoas naturais.

 

Mostrar os caminhos de como fazer uso ético e responsável dos dados pessoais é necessário, pois, com a larga escala de informações e a velocidade com que a tecnologia (em especial a internet) permite a disseminação delas, além dos inúmeros benefícios, há muitos prejuízos à sociedade e aos próprios cidadãos que têm seus dados compartilhados descontroladamente.

 

O exemplo prático que atinge todos são os e-mails de marketing. Hoje uma empresa com uma boa equipe de análise de dados coleta rapidamente várias informações pessoais, a partir de acesso a sites, tempos de visualização ou likes e pode ser muito assertiva nas suas campanhas promocionais, direcionando-as ao perfil de cada consumidor que recebe um e-mail com o exato produto que queria comprar e por um preço melhor. Nesse caso, temos as duas partes da cadeia satisfeitas com o uso de dados pessoais.

 

Por outro lado, pode-se ter um efeito negativo, como no caso de uma pessoa que não quer e-mail promocionais, e solicita o descadastramento, mas continua a receber publicidade, outras que são persuadidas inconscientemente a comprar, sem precisar, podendo ser prejudicadas financeiramente. Ainda, a perfilização com vieses discriminatórios assim como a possibilidade de golpes contra consumidores são outras hipóteses de prejuízos sociais e individuais.

 

Nessa esteira, podemos identificar que a lei não veio para obstar as empresas de terem um banco de dados e de encaminharem e-mails publicitários direcionados aos seus clientes, mas para regulamentar como essas e outras atividades com dados pessoais devem ser feitas, respeitando o livre desenvolvimento da personalidade humana. Para tanto, a lei estabelece a adoção de medidas – como a transparência aos clientes sobre o tratamento de dados, a garantia de descadastramentos (direito de oposição ou, quando o caso, revogação do consentimento), controle de acesso às bases de dados, entre outras, dispostas na governança de privacidade e a proteção de dados existente na organização.

 

Da mesma forma que a iniciativa privada deve ter esse cuidado, sob pena de ser responsabilizada administrativamente, perante a Autoridade Nacional de Proteção de Dados, ou judicialmente, perante o Poder Judiciário, toda a administração pública e seus órgãos devem estar adequados à legislação, realizando avaliações e implementações internas, sob pena de, igualmente, de responsabilização.

 

Panorama do uso da IA no Judiciário sob a perspectiva da LGPD

 

Nesse aspecto, o Poder Judiciário ganha um enfoque ainda maior, pois, conforme citado acima, ele é responsável por decidir litígios envolvendo o uso de dados pessoais, ao mesmo tempo em que todas as suas atividades devem estar adequadas à LGPD, inclusive a própria prestação jurisdicional. Assim, há uma cobrança social implícita de que, a forma como o Poder Judiciário aplica a lei internamente, refletirá na forma que ele exigirá das partes no processo judicial. Consequentemente, tem-se a importância de refletir sobre a inteligência artificial no Poder Judiciário sob a perspectiva da Lei Geral de Proteção de Dados.

 

No Brasil, desde 2020 [1], o Conselho Nacional de Justiça (CNJ) já regulamenta o uso da IA pelos órgãos judiciários e existem diversas situações de uso, por exemplo, o “Robô VitórIA”, utilizado pelo STF e que tem por objetivo “ampliar o conhecimento sobre o perfil dos processos recebidos no STF e permitir o tratamento conjunto de temas repetidos ou similares” [2].

 

É inequívoco que a inteligência artificial veio para romper barreiras, otimizar processos, liberar pessoas de realizar serviços mecânicos, inclusive desburocratizar atividades jurisdicionais, ainda mais considerando as metas que precisam ser cumpridas em um ambiente com um alto volume de serviços, tal como é a realidade do Poder Judiciário, entretanto, esse uso deve ser consciente.

 

Primeiramente, deve-se compreender que quando se insere o processo judicial ou parte dele em uma ferramenta para auxiliar em atividades como resumos de processos [3], minutas de sentenças, cálculos trabalhistas ou identificação se existiu trabalho aos domingos e feriados, enfim, qualquer atividade com o processo que contenha informações de pessoas naturais, o magistrado ou o servidor público estará tratando dados pessoais.

 

Especificamente, estará compartilhando os dados pessoais internamente, se a plataforma for desenvolvida pelo tribunal, ou compartilhando externamente, se for uma plataforma de desenvolvedor externo ao órgão. Neste último aspecto, aumenta-se a complexidade do tratamento quando se fala em inteligência artificial generativa [4] em que as informações passam a alimentar a ferramenta e a serem armazenadas na base de dados da IA.

 

Quando a plataforma é desenvolvida pelo tribunal, deve-se pensar em privacy by design, ou seja, garantir a privacidade e proteção de dados desde a sua concepção. Enquanto, se for utilizar uma plataforma já existente no mercado, como “ChatGPT” (OpenAI), “Gemini” (Google) ou “Copilot” (Microsoft), é imprescindível diligenciar a conformidade à LGPD e às Políticas Internas aprovadas no Órgão, tanto para mapear os riscos, como se eximir de responsabilidades, aplicando-se o privacy by default (privacidade por padrão).

 

A ANPD (Autoridade Nacional de Proteção de Dados) está monitorando e constantemente solicitando informações às principais empresas desenvolvedoras e fornecedoras da inteligência artificial generativa, sendo um dos principais pontos de questionamento a transparência sobre como é realizado o tratamento dos dados pela IA existentes no mercado. As informações não costumam ser claras e as bases legais justificadoras inadequadas, o que leva os tribunais a redobrarem seus cuidados.

 

Isto, pois, existe o risco de expor os titulares dos dados a atividades incompatíveis com as inicialmente pretendidas, por exemplo, listas discriminatórias de litigantes trabalhistas ou as partes serem vítimas de golpes. Além de situações, como o fato a soberania do país ficar exposta ao se realizar o compartilhamento e armazenamento de dados de dentro da administração pública — que envolvem, na maioria, cidadãos brasileiros — se os data centers dos desenvolvedores externos estiverem localizados em países que não atendem às diretrizes da LGPD e ao regulamento da ANPD [5] sobre transferência internacional de dados.

 

Além disso, as ações dos magistrados e servidores públicos devem estar alinhadas com as legislações específicas, com seus respectivos códigos de ética e com as políticas internas aprovadas por cada tribunal. Ou seja, assim como um funcionário de uma empresa não deve enviar e-mails de marketing que não estejam de acordo com a LGPD, nem mesmo utilizar ferramentas pessoais para suas atividades profissionais, sob pena de rescisão por justa causa [6]; também não se pode admitir que uma pessoa que trabalha na Administração Pública, geralmente com acesso a um grande volume de dados pessoais, utilize ferramentas de trabalho que não sejam as institucionais, validadas pelo órgão ao qual está vinculado.

 

Ideias norteadoras do uso da IA

 

Para regulamentar a inteligência artificial (IA) generativa, o CNJ realizou em setembro de 2024, audiência pública para apresentação de ideias norteadoras aos tribunais na utilização dessa tecnologia.

 

O debate sobre a minuta contendo alterações para a Resolução CNJ nº 332/2020 e a ausência de permissão expressa do Conselho não impedem que os tribunais desenvolvam plataformas de IA generativa ou que utilizem as já existentes no mercado. Todavia, para respaldar ou coibir o uso, o agente de tratamento deve fazer diligências prévias, analisando se a ferramenta preenche ou não os requisitos para conformidade à LGPD, garantindo a privacidade desde a concepção e por padrão.

 

Para tal aferição, conforme o organograma de cada tribunal, incumbe ao setor responsável avaliar a compatibilidade da IA com as normas nacionais e política institucional. A atividade consiste, inicialmente, em mapear os fluxos dos dados pessoais a serem inseridos na IA generativa, obtendo informações como:

 

  1. a) área que utilizar;

 

  1. b) quais os dados pessoais serão tratados;

 

  1. c) qual a finalidade;

 

  1. d) qual a necessidade;

 

  1. e) quais as categorias dos dados (comuns, sensíveis, crianças ou adolescentes);

 

  1. f) qual o perfil dos titulares dos dados;

 

  1. g) qual a origem dos dados;

 

  1. h) qual a posição como agente de tratamento;

 

  1. i) como será o compartilhamento com terceiro;

 

  1. j) se haverá o armazenamento de dados por terceiro e condições;

 

  1. k) qual a conformidade desse terceiro com a LGPD e as políticas internas;

 

  1. l) quais são os mecanismos de segurança da informação adotados;

 

  1. m) qual a localidade do tratamento de dados; se for internacional, identificar conformidade com a Resolução da ANPD;

 

  1. n) qual a base legal da LGPD para realizar os tratamentos dos dados nesse procedimento;

 

  1. o) quais os riscos de discriminação;

 

  1. p) quais os procedimentos para o exercício dos direitos dos titulares e outros pontos que se mostrem relevantes para registro.

 

Na sequência, para análise dos riscos, pode-se apoiar na ferramenta Swot/Fofa, com identificação das forças (ex., o que já é feito bem, quais os destaques das atividades do tribunal), as oportunidades (ex.: se existem lacunas que a atividade pode preencher, como estão as metas), as fraquezas (ex.: o que poderia melhorar, incluindo recursos) e as ameaças (ex.: quais implicações por não utilizar a IA).

 

Nessa oportunidade também são lidos os termos de uso, as políticas de privacidade e pode-se dialogar com representantes dos desenvolvedores das Ias sobre a possibilidade de dados serem submetidos a processos de anonimização, que aumenta a segurança para o titular e ao próprio usuário.

 

Ainda, pode ser avaliado se em alguns tratamentos serão necessárias mais cautelas ou até proibição de utilização, como em processos envolvendo dados de crianças e adolescentes, nas Varas de Infância e Juventude, ou documentos relacionados à saúde como em processos na Justiça Federal em que se discute benefícios previdenciários ou ações trabalhistas com pedido de dispensa discriminatória em decorrência de doença de saúde.

 

Essas conclusões, obtidas com o mapeamento e a análise dos riscos, compõem o “due dilligence de proteção de dados”, auxiliam na elaboração do relatório de impacto à proteção de dados e do parecer a ser emitido pela equipe responsável a ser apresentado à autoridade ou colegiado do tribunal com competência para decidir sobre assunto.

 

Decidido pela negativa do uso da IA, é importante justificar no órgão as razões e adotar medidas, como bloqueio dos sites ou aplicativos que permitam a função. Por sua vez, se aprovado, deve-se estabelecer as regras e as condições para uso; atualizar os documentos institucionais (como o aviso/política de privacidade); garantir transparência com a inserção de identificadores quando for utilizada a inteligência artificial generativa (como selos ou padronização de sinais); reforçar a proibição das outras plataformas não as homologadas, com monitoramento da efetividade da IA; capacitar magistrados e servidores que irão utilizá-la e, claro, após consolidado o uso da nova ferramenta, ser inserida no check-list de itens para inspeções e correições, para verificar se seu uso está sendo efetivo e eficaz, dentro da sua finalidade.

 

Estas ações podem parecer trabalhosas e talvez ainda não façam parte da rotina dos tribunais, mas proteção de dados é uma nova cultura, quanto antes entendermos a necessidade de adotar essas práticas, em todas as atividades, por todas as estruturas hierárquicas da Administração Pública, mais natural e integradas na rotina elas passarão a ser.

 

É importante desmistificar que, assim como a LGPD não proíbe e-mails de marketing e não impede a utilização da IA generativa no Poder Judiciário, mas orienta para que o desenvolvimento e o uso dos recursos sejam ética e socialmente responsáveis, em prol da proteção dos direitos fundamentais de liberdade e de privacidade e o livre desenvolvimento da personalidade da pessoa natural ao mesmo tempo em que também se garante o desenvolvimento econômico, tecnológico e a inovação.

 

 

 

[1] BRASIL. CNJ. Res. nº 332, de 21 de agosto de 2020. Disponível em: https://atos.cnj.jus.br/atos/detalhar/3429. Acesso em: 30 out. 2024.

 

[2] STF finaliza testes de nova ferramenta de Inteligência Artificial. STF. Brasília: 11 maio 2023. Disponível em: https://portal.stf.jus.br/noticias/verNoticiaDetalhe.asp?idConteudo=507120&ori=1. Acesso em: 30 out. 2024.

 

[3] RODAS, Sérgio. Tecnologia para o progresso: Judiciário deve usar inteligência artificial para resumir ações e fazer minutas de decisões, diz Barroso. Consultor Jurídico (ConJur). Rio de Janeiro, 14 maio 2024. Disponível em: https://www.conjur.com.br/2024-mai-14/judiciario-deve-usar-ia-para-resumir-acoes-e-fazer-minutas-de-decisoes-diz-barroso/. Acesso em: 30 out. 2024.

 

[4] “As inteligências artificiais generativas têm amplo potencial de criação de novas informações, a partir de um conjunto de dados existente, ampliando os textos inicialmente dispostos, com interconectores que aprendem por meio da interação e os diálogos que vão sendo alimentados por nós mesmos ao utilizar a ferramenta.” (BONAT, Débora; VALE, Luís Manoel Borges do; PEREIRA, João Sergio dos Santos Soares. Inteligência artificial generativa e a fundamentação da decisão judicial. Revista de Processo: RePro, São Paulo, v. 48, n. 346, p. 349-370, dez. 2023. Disponível em: https://bdjur.stj.jus.br/jspui/handle/2011/182469. Acesso em: 1 nov. 2024.)

 

[5] BRASIL. ANPD. Resolução nº 19, de 23 de agosto de 2024. Disponível em: https://www.in.gov.br/en/web/dou/-/resolucao-cd/anpd-n-19-de-23-de-agosto-de-2024-580095396. Acesso em: 2 nov. 2024.

 

[6] BRASIL. TRT-3 (9. Turma). ROT  0010349-69.2022.5.03.0103. A justa causa resultante da prática de falta grave pelo empregado é a pena máxima aplicada ao trabalhador faltoso, devendo ser robustamente provada, sendo esse ônus do empregador, a teor dos arts. 818, II, da CLT, e 373, II, do CPC. Para legitimar a aplicação da penalidade máxima devem ser comprovados a culpa do empregado, a gravidade do ato motivador, o imediatismo da rescisão, o nexo de causalidade entre a falta grave cometida e o efeito danoso suportado pelo empregador. Relator: Juiz Convocado Carlos Roberto Barbosa, 27 de junho de 2024. Disponível em: https://pje-consulta.trt3.jus.br/consultaprocessual/detalhe-processo/0010349-69.2022.5.03.0103/2#03d7a7c. Acesso em: 30 out. 2024.

 

Fonte: Conjur

Deixe um comentário