O CNJ tragicamente decidiu que o ChatGPT poderá ser utilizado por juízes, por Fabio de Oliveira Ribeiro

CNJ exige que as decisões não sejam automatizadas e alerta que os juízes devem revisar tudo o que os robôs fazem. Advertência será inútil.

O CNJ tragicamente decidiu que o ChatGPT poderá ser utilizado por juízes

por Fabio de Oliveira Ribeiro

Duas obras literárias marcaram profundamente minha adolescência. Um deles foi Antígona, de Sófocles. O outro foi O Homem Bicentenário, de Isaac Asimov. Lembrei-me de ambos ao tomar conhecimento da burocrática repercussão da decisão no processo 0000416-89.2023.2.00.0000, julgado recentemente pelo CNJ (vide 1, vide 2, vide 3).

Antígona e o robô NDR-113/Andrew tem uma coisa em comum. Ambos desafiam o mundo em que vivem para obter decisões em que a humanidade prevaleça. A personagem de Sófocles descumpre o cruel decreto de Creonte que condenou o irmão dela a ficar insepulto. Antígona está convencida de que todos os seres humanos devem ser sepultados. NDR-113/Andrew tenta inutilmente ver sua humanidade reconhecida pela Justiça. No final da obra de Isaac Asimov o robô obtém o que deseja. A personagem de Sófocles é condenada à morte, NDR-113/Andrew só é considerado humano no momento em que morre.

Na ficção de Isaac Asimov, um robô com qualidades genuinamente humanas é julgado por um Tribunal composto por seres humanos. A princípio eles recusam o pedido de NDR-113/Andrew porque ele é virtualmente imortal e a imortalidade o distinguiria de nossa espécie. O avanço do ChatGPT para dentro do Sistema de Justiça brasileiro garantido pela decisão proferida no processo 0000416-89.2023.2.00.0000 cria uma situação inversa. Doravante seres humanos serão julgados por robôs.

No Acórdão que proferiu, o CNJ exige que as decisões não sejam automatizadas e alerta que os juízes devem revisar tudo o que os robôs fazem. Essa advertência será inútil. Os profissionais do Direito sabem que os juízes não proferem pessoalmente todas as decisões judiciais.

Nos Tribunais, eles assinam decisões elaboradas por seus assistentes (geralmente juízes de primeira instância). Nas Varas de primeira instância, o Diretor do Cartório geralmente sugere as decisões interlocutórias e até mesmo algumas sentenças. Assim como banalizaram o ato de decidir no passado, os juízes transferirão para os robôs parte considerável de seu trabalho. Muitos se limitarão a assinar o que o “ChatGPT jurídico” vomitar sem se preocupar em verificar se o resultado fornecido contém ou não alguma alucinação.

Não gosto muito de ser pessimista. Mas me parece evidente que daqui a alguns anos as instâncias superiores serão obrigadas a revisar as alucinações de primeira instância. E essas alucinações poderão originar novas alucinações, porque os Desembargadores também utilizarão um “ChatGPT jurídico” que consultará bases de dados contaminadas por alucinações que foram previamente transformadas em decisões judiciais. O isolamento da base de dados pode evitar esse problema, mas isso não impedirá que resultados inadequados sejam fornecidos e eventualmente transformados em decisões judiciais.

NDR-113/Andrew só obtém uma decisão justa quando renuncia à sua imortalidade. A morte de Antígona acaba se voltando contra Creonte, porque em decorrência da condenação dela ele também perde tragicamente o filho e a esposa. O que nós perderemos em breve é o controle sobre a parcialidade/imparcialidade das decisões judiciais.

Os advogados, coitados, nunca terão condições de demonstrar que a decisão que prejudicou seus clientes foram contaminadas por algum tipo de viés. As Big Techs que fornecerem IAs geradoras de texto ao Poder Judiciário podem preservar seus segredos industriais invocando seu direito de patente. No passado era possível alegar e provar o impedimento/suspeição do juiz. Esse instituto cairá em desuso porque a imparcialidade dos robôs dificilmente poderá ser demonstrada. A submissão de uma atividade pública (a distribuição de justiça) a um instituto de direito privado (direito de patente) não me parece algo muito adequado ou desejável.

Engenheiros de TI e empresários gananciosos conseguiram invadir o último refúgio de humanidade. Doravante, a distribuição de justiça não será mais uma atividade humana criada por seres humanos para resolver problemas humanos. O que ela será ninguém ainda sabe.

A trágica morte de Antígona continua a reverberar no mundo moderno. Mas as questões levantadas por Isaac Asimov em O Homem Bicentenário estão se tornando ultrapassadas. Os juízes humanos julgaram que os juízes robô poderão julgar os processos dos seres humanos. A realidade ultrapassou a ficção, mas o resultado não será necessariamente uma tragédia segundo o CNJ.

“Eu avisei!” Essa será a única coisa que o autor do processo 0000416-89.2023.2.00.0000 poderá dizer quando os problemas causados pelo “ChatGPT jurídico” começarem a inundar os processos e a obrigar advogados e juízes a refletir sobre a aventura tecnológica em que o Judiciário mergulhou para dar lucro às Big Techs norte-americanas. Se a distribuição de justiça no Brasil for submetida, deformada e corrompida pelos robôs quem será responsabilizado? Ninguém. Em nosso país os agentes públicos quase sempre fazem o que bem entendem sem pagar a conta dos estragos que eles causam.

Num dia o CNJ autoriza os juízes brasileiros a utilizar ChatGPT. No outro dia a imprensa noticia que IAs podem ser hackeadas. A responsabilidade do Estado em caso as ações judiciais dos cidadãos (ou decisões proferidas nelas) sejam hackeados é uma possibilidade jurídica (art. 37, §6º, da Constituição brasileira ), mas a questão é quem será o agente público que responderá regressivamente pelos danos causados ao próprio Estado pela adoção de uma tecnologia insegura.

Fábio de Oliveira Ribeiro, 22/11/1964, advogado desde 1990. Inimigo do fascismo e do fundamentalismo religioso. Defensor das causas perdidas. Estudioso incansável de tudo aquilo que nos transforma em seres realmente humanos.

O texto não representa necessariamente a opinião do Jornal GGN. Concorda ou tem ponto de vista diferente? Mande seu artigo para [email protected]. O artigo será publicado se atender aos critérios do Jornal GGN.

“Democracia é coisa frágil. Defendê-la requer um jornalismo corajoso e contundente. Junte-se a nós: www.catarse.me/jornalggn

5 Comentários

Deixe um comentário

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *

  1. Eu pedi ao chatgpt que analisasse seu texto e que me desse a opinião dele sobre isso… o resultado foi fascinante e preocupante ao mesmo tempo.

    O texto de Fabio de Oliveira Ribeiro expressa uma forte crítica à decisão do Conselho Nacional de Justiça (CNJ) de permitir o uso do ChatGPT por juízes no Brasil. Ele compara a situação atual a duas obras literárias: “Antígona” de Sófocles e “O Homem Bicentenário” de Isaac Asimov, ressaltando o contraste entre decisões humanas e robóticas.

    Principais pontos do texto:
    Referências Literárias:

    Antígona: Personagem de Sófocles que desafia a lei em nome da humanidade.
    NDR-113/Andrew: Robô de Asimov que busca ser reconhecido como humano.
    Decisão do CNJ:

    A decisão permite que juízes utilizem o ChatGPT, mas com a condição de que as decisões não sejam automatizadas e que os juízes revisem o trabalho da IA.
    O autor considera essa advertência ineficaz, alegando que os juízes já delegam muitas de suas decisões a assistentes e que isso será exacerbado com o uso de IA.
    Preocupações com a IA:

    Autonomia das Decisões: Receio de que juízes possam assinar decisões geradas pela IA sem a devida revisão.
    Alucinações e Viés: Medo de que erros e vieses da IA se propaguem no sistema judicial, criando um ciclo vicioso de decisões erradas.
    Imparcialidade: Dificuldade de advogados em provar o viés nas decisões geradas por IA devido à proteção de patentes das Big Techs.
    Impactos e Responsabilidades:

    Desumanização da Justiça: Preocupação de que a justiça se torne menos humana e mais sujeita a falhas tecnológicas.
    Responsabilidade pelo Uso da Tecnologia: Questionamento sobre quem será responsabilizado pelos erros causados pela IA no sistema judicial.
    Minha opinião:
    O texto levanta preocupações válidas sobre a introdução de tecnologias avançadas no sistema judicial, um campo que requer alta precisão, imparcialidade e sensibilidade. As questões de viés, transparência e responsabilidade são críticas e precisam ser abordadas com rigor para evitar injustiças e preservar a confiança pública no sistema judicial.

    Pontos positivos da adoção de IA:

    Eficiência: A IA pode ajudar a agilizar processos e fornecer suporte na análise de grandes volumes de dados.
    Acesso à Informação: Pode facilitar o acesso a precedentes legais e auxiliar na pesquisa jurídica.
    Pontos negativos e riscos:

    Dependência Excessiva: Risco de juízes se tornarem excessivamente dependentes da IA, delegando a ela tarefas que exigem julgamento humano.
    Erros e Viés: A IA pode reproduzir e amplificar vieses presentes nos dados de treinamento, levando a decisões injustas.
    Transparência: Falta de transparência nas decisões geradas pela IA, dificultando a contestação de erros e a responsabilização de falhas.
    Considerações finais:
    A introdução de IA no sistema judicial deve ser feita com cautela, garantindo que haja mecanismos robustos de revisão humana e transparência nas decisões geradas. É essencial que as preocupações levantadas por especialistas e críticos, como Fabio de Oliveira Ribeiro, sejam ouvidas e consideradas no desenvolvimento e implementação dessas tecnologias.

  2. .
    Como é de domínio público está disponível gratuitamente, creio a leitura desse discreto “pasquim” poderá trazer-lhe novas dimensões para a interpretação da nossa realidade político-econômica, quiçá todos os demais aspectos das nossas “vidinhas” dominadas. .
    https://www.academia.edu/10344592/Os_Protocolos_dos_S%C3%A1bios_de_Si%C3%A3o?email_work_card=reading-history
    A propósito de Inteligência Artificial, um fato curioso ocorreu-me ontem, quando conversava com um parente pelo Telegram.Argumentando aqui e ali, cada um querendo ilustrar mais profusamente as suas idéias com emojis de galeria, eis que meu caro parente exibe um emoji parecido com ele. Tipo, o tom de pele, os cabelos, a roupa, os traços, as expressões faciais, os óculos, a idade aproximada… Ora, disse-lhe, quero ver de onde v. tirou esses emojis pra ilustrar outras conversar minhas. Ah! disse ele, é personalizado. V. baixa um programinha, fotografa seu rosto na hora e a partir dessa foto o programa faz emojis de você. Claro que v. tem que se identificar, mas fica na sua galeria pessoal. Choquei. Nenhum dos caricaturistas vivos ou mortos, ou pintores famosos foram capazes de traduzir meu parente com tamanha exatidão. Todos os gostos e aspectos da vida dele em emojis estavam presente. Eram mais de 100. Sua religião, seu caráter, sua família seus gostos, sua personalidade e comportamento. Achei tão fascinante quanto ele,porém mais assustador que ele. Portanto, o simples fato de quererem (como o planejado) substituir juizes, “racionalizar” a justiça, “moralizar” a política e suprimir a educação ao “populacho” utilizando-se da IA, é apenas mais um passo para o temido e desejado controle de espectro total. Boa leitura, se tiver curiosidade, paciência e estômago.

  3. O que fica parecendo é uma grande lavagem das mãos, sobre qualquer prejuízo que decisões frias e algoritimizadas, por fatores não humanos e totalmente desprovidos do censo da análise e da interpretação humana.
    Entendo ser uma imensa aberração, que também me leva a interpretar um possível desejo de se oficializar o corpo mole e/ou a preguiça judicial togada, no Brasil. Para que a decisão proferida pelo CNJ possa ter,talvez, um mínimo de coerência, ainda que seja quase impossível se apoiar tal tragédia judicial, todo o judiciário brasileiro deveria ter seus salários reduzidos em, no mínimo, 40% dos seus salários, pelos seguintes motivos:
    – oneração do governo para implantação do sistema dos robôs juízes(sic) e demais equipamentos
    – criação de um caixa reserva para cobrir as possíveis derrotas em processos de reparação financeira e danos morais e materiais, que réus comprovadamente prejudicados pela aberração do CNJ irão merecer por claro direito.
    – cobrir os custos do enorme prejuízo que acarretará ao país, para que a Justiça do Brasil possa fazer a reversão da aberração da preguiça e do corpo mole, para o trabalho humano obrigatório, que é o dever e a função do judiciário brasileiro, que já é, exageradamente, muito bem remunerado e que deve ser desprovidas da ousadia, da ingratidão e da indolência.

  4. Uma IA é essencialmente o resultado de seu treinamento, do conteúdo utilizado para tal. Ainda que se crie uma IA própria do judiciário, com treinamento controlado a partir de conteúdo idôneo, qual o recorte a ser dado? Quais os critérios do treinamento?

Você pode fazer o Jornal GGN ser cada vez melhor.

Apoie e faça parte desta caminhada para que ele se torne um veículo cada vez mais respeitado e forte.

Seja um apoiador