Não é ficção. Nos Estados Unidos, o aplicativo DoNotPay ficou conhecido por ser o “primeiro advogado robô do mundo”, ajudando usuários a recorrerem de multas de trânsito e pequenas causas. E na China, tribunais já utilizam inteligência artificial (IA) para analisar processos e sugerir decisões em casos de menor complexidade.
Então, preparem-se: a inteligência artificial já chegou ao mundo jurídico e não parece disposta a sair. Para alguns, ela é a salvação contra a morosidade e a burocracia dos processos. Para outros, é uma ameaça a autonomia dos profissionais do direito, que podem acabar reféns de decisões algorítmicas. Mas, afinal, a IA é um veneno ou remédio?
De um lado, a tecnologia surge como uma grande aliada, agilizando tarefas repetitivas e permitindo que advogados e magistrados se concentrem em questões estratégicas. De outro, o medo de que a lA decida sozinha e torne a atuação humana dispensável não é exagerado. Afinal, será que estamos nos aproximando de um futuro onde um software analisará provas, preverá sentenças e indicará jurisprudências sem interferência humana?
E justamente aí que a IA mostra seu valor. Ferramentas baseadas em aprendizado de máquina e processamento de linguagem natural são usadas para revisar contratos, identificar precedentes e até prever o desfecho de acões judiciais. Os chamados legal techs, softwares jurídicos especializados, são usados para organizar petições, analisar jurisprudência, verificar documentos e reduzir prazos.
Nos tribunais, sistemas automatizados agilizam a tramitação dos processos e desafogam o Judiciário. E cidadãos usam assistentes virtuais e chatbots sugerem orientações jurídicas. Tudo isso faz parecer que a IA veio para resolver problemas jue há décadas atormentam os profissionais do direito. Mas e os riscos?
A empolgação com a tecnologia não deve ofuscar os desafios. Se hoje as pessoas têm controle sobre os processos, a dependência excessiva de sistemas automatizados coloca isso em xeque. Um dos principais riscos é a chamada ‘automatização cega”, quando operadores do Direito confiam tanto nas sugestões da lA que não questionam seus critérios.
Outro problema sério é a transparência dos algoritmos. Muitos desses sistemas funcionam como verdadeiras “caixas-pretas”, onde nem os desenvolvedores conseguem explicar exatamente como a máquina chegou à conclusão. Surgem questões preocupantes: como garantir que os sistemas são justos? Nos Estados Unidos já houve casos em que algoritmos preditivos reforçaram padrões discriminatórios no sistema penal.
Se a tecnologia é capaz de filtrar e processar um volume de informações impensável para um ser humano, ela também pode ser usada de maneira estratégica para reforçar boas práticas. Um modelo de lA treinado para verificar se ha padrões discriminatórios em sentenças judiciais. Então o problema não é a ferramenta em si, mas como está programada para servir. E o mercado de trabalho?
Se a lA assumir parte das taretas juridicas, isso signitica menos vagas para profissionais do direito? A questão divide opiniões. Especialistas alertam que a automação pode reduzir a demanda por profissionais. Outros acreditam que a lA não eliminará empregos, mas sim mudará o perfil do mercado. Em vez de substituir os operadores do direito, a lA pode criar novas oportunidades para aqueles que souberem utilizar a tecnologia a seu favor. O profissional do futuro precisará entender não só de direito, mas também de tecnologia, para atuar na interseção entre essas duas áreas. Mas o grande diferencial não será apenas o domínio técnico: será a capacidade de interpretar cenários, lidar com clientes e oferecer soluções jurídicas que vão além do previsível. Afinal, direito não é só regra, é contexto, argumentação e estratégia.
A boa notícia é que, por enquanto, a inteligência artificial não consegue replicar características humanas essenciais para o direito, como empatia, interpretação subjetiva e discernimento moral. Na prática, o direito exige um olhar humano para a análise de cada caso.
Isso não significa que a IA não possa causar problemas. Se sua adoção ocorrer sem regulamentação adequada e sem preocupação com ética e transparência, os riscos de erros, injustiças e decisões enviesadas podem comprometer a credibilidade do sistema. Por outro lado, se for bem utilizada, pode ser um instrumento poderoso para melhorar o acesso à justica.
No fim das contas, o problema não é a lA em si, mas a forma como lidamos com ela. O futuro do direito não será definido pela tecnologia, mas pela maneira como notários e demais operadores do sistema jurídico irão utilizá-la.
Cabe entender que o grande diferencial não será conhecer as leis, mas saber lidar com gente de verdade. Afinal, cliente não é número, é pessoa, e, por mais avançada que a tecnologia seja, ela ainda não aprendeu a ouvir com empatia, entender angústias ou dar suporte que vai além do jurídico. O atendimento humanizado vira um trunfo: acolher, explicar sem juridiquês e realmente se importar com a dor do cliente fará a diferença.
Bem por isso, escritórios de advocacia em países como Canadá têm investido no “advogado concierge”, um profissional focado no acolhimento e suporte emocional ao cliente. Portanto, a IA pode até ajudar a encontrar a melhor tese, mas quem constrói confiança com quem está do outro lado da mesa é o bom e velho operador de carne e osso. Parece contraditório, mas está na hora de correr para nos digitalizar e para nos humanizar.
Fonte: Valor Econômico
Deixe um comentário