A justiça humana é falha, mas é melhor do que a justiça do ChatGPT, por Fábio de Oliveira Ribeiro

Voltei a usar a utilizar a inteligência artificial para testar uma nova hipótese. O teste foi realizado em três fases distintas

A justiça humana é falha, mas é melhor do que a justiça do ChatGPT

por Fábio de Oliveira Ribeiro

Após a publicação do texto O TSE não gosta do ChatGPT… eu também não voltei a usar a utilizar a inteligência artificial para testar uma nova hipótese. O teste foi realizado em três fases distintas: na primeira o tema principal é a distribuição de justiça por seres humanos e/ou inteligência artificial; na segunda a principal questão são os efeitos econômicos da invasão da esfera jurídica pela IA; na terceira foi construído um cenário para elucidar problemas possíveis da substituição de juízes humanos por inteligência artificial e compará-los com o que existem na atualidade. Eis o resultado:

PRIMEIRA FASE

Fábio: A Justiça distribuída por seres humanos para seres humanos é falha. Sabendo disso, os estudiosos do Direito criaram institutos jurídicos para contornar essas falhas e possibilitar a distribuição da melhor Justiça possível.

OpenAI: Sim, é verdade que a justiça distribuída por seres humanos pode ser falha, devido a diversos fatores, como a subjetividade dos juízes, a influência de interesses pessoais e políticos, a falta de recursos e infraestrutura, entre outros.

Para contornar essas falhas, os estudiosos do Direito criaram institutos jurídicos que visam garantir a aplicação de uma justiça mais justa e equitativa. Alguns exemplos desses institutos são:

  1. Princípios jurídicos: São regras e normas estabelecidas pela legislação e pela doutrina, que têm por objetivo orientar a aplicação do Direito de forma justa e coerente. Esses princípios incluem, por exemplo, o princípio da igualdade, da legalidade, da imparcialidade, da razoabilidade, entre outros.
  2. Garantias fundamentais: São direitos previstos na Constituição que têm por objetivo proteger os cidadãos contra abusos de poder e garantir a aplicação justa do Direito. Entre essas garantias, destacam-se o direito ao devido processo legal, à ampla defesa, ao contraditório, à presunção de inocência, entre outros.
  3. Tribunais superiores: São instâncias superiores do Judiciário que têm por objetivo garantir a uniformidade e a correção da aplicação do Direito em todo o país. Esses tribunais, como o Supremo Tribunal Federal, têm a função de interpretar a Constituição e as leis, e garantir a sua aplicação em conformidade com os princípios e garantias fundamentais.
  4. Ministério Público: É uma instituição independente que tem por objetivo defender a ordem jurídica, os interesses sociais e os direitos individuais e coletivos. O Ministério Público atua na investigação e no processo penal, na defesa dos direitos do consumidor, do meio ambiente, da criança e do adolescente, entre outros.

Esses são apenas alguns exemplos dos institutos jurídicos que foram criados para contornar as falhas da justiça distribuída por seres humanos e garantir a aplicação de uma justiça mais justa e equitativa. No entanto, é importante lembrar que esses institutos também são passíveis de falhas e limitações, e que a busca por uma justiça mais justa e equitativa é um processo constante e em constante aprimoramento.

Fábio: Fale-me da Justiça distribuída por inteligência artificial.

OpenAI: A justiça distribuída por inteligência artificial é um conceito relativamente novo e que ainda está sendo explorado. Em teoria, a inteligência artificial pode ser utilizada para aprimorar a justiça distribuída por seres humanos, reduzindo as falhas humanas e aumentando a imparcialidade e a objetividade do processo.

Uma das principais vantagens da utilização da inteligência artificial na justiça é a sua capacidade de processar grandes quantidades de dados de forma rápida e precisa, o que pode ser útil na análise de casos complexos. Além disso, a inteligência artificial pode ser programada para seguir padrões objetivos e imparciais na aplicação do Direito, reduzindo a influência de fatores subjetivos e pessoais na tomada de decisões.

No entanto, é importante lembrar que a utilização da inteligência artificial na justiça também apresenta alguns desafios e riscos. Um dos principais desafios é garantir a transparência e a responsabilidade na tomada de decisões, uma vez que a lógica utilizada pela inteligência artificial pode ser complexa e difícil de compreender.

Outro desafio é garantir a proteção dos direitos fundamentais e a privacidade dos indivíduos, especialmente em casos que envolvem a utilização de dados pessoais sensíveis. É importante garantir que a utilização da inteligência artificial na justiça respeite os princípios éticos e legais e que seja supervisionada por seres humanos qualificados.

Em resumo, a justiça distribuída por inteligência artificial ainda é um campo em desenvolvimento e que apresenta tanto oportunidades como desafios. É importante avaliar cuidadosamente as possibilidades e os riscos da utilização da inteligência artificial na justiça, e garantir que ela seja utilizada de forma ética, transparente e responsável.

Fábio: Compare ambas destacando: 1- diferenças; 2- semelhanças; 3- possíveis consequências de violação da imparcialidade; 4- prova da imparcialidade.

OpenAI: 1- Diferenças:

A principal diferença entre a justiça distribuída por seres humanos e a justiça distribuída por inteligência artificial é que a primeira é conduzida por seres humanos e a segunda é conduzida por algoritmos e sistemas automatizados. Isso significa que a justiça distribuída por seres humanos é influenciada por fatores subjetivos, como opiniões pessoais, emoções e preconceitos, enquanto a justiça distribuída por inteligência artificial é baseada em lógicas e algoritmos objetivos e imparciais.

2- Semelhanças:

Tanto a justiça distribuída por seres humanos como a justiça distribuída por inteligência artificial têm como objetivo garantir a aplicação justa do Direito e a resolução de conflitos de forma equitativa. Ambas também estão sujeitas a falhas e limitações, e requerem supervisão e aprimoramento constante.

3- Possíveis consequências de violação da imparcialidade:

A violação da imparcialidade na justiça distribuída por seres humanos pode levar a decisões injustas e discriminatórias, que prejudicam os direitos e interesses das partes envolvidas no processo. Na justiça distribuída por inteligência artificial, a violação da imparcialidade pode levar a decisões injustas e prejudiciais, especialmente quando a lógica ou os dados utilizados para tomar decisões são enviesados ou discriminatórios.

4- Prova da imparcialidade:

Na justiça distribuída por seres humanos, a prova da imparcialidade pode ser mais difícil de obter, uma vez que envolve a análise de fatores subjetivos, como opiniões e emoções dos juízes. Na justiça distribuída por inteligência artificial, a prova da imparcialidade pode ser mais fácil de obter, uma vez que é possível analisar a lógica e os algoritmos utilizados para tomar decisões. No entanto, é importante lembrar que a imparcialidade na justiça distribuída por inteligência artificial também pode ser comprometida por dados enviesados ou inadequados, o que pode ser difícil de detectar e corrigir.

Fábio: Refine a resposta: as partes e os advogados podem obter elementos que provem o comprometimento da imparcialidade do juiz humano; o viez na decisão de uma IA é mais difícil de perceber, pois a esmagadora maioria das pessoas não sabe como as redes neurais funcionam, quais os bancos de dados elas acessa e como os resultados probabilísticos são calculados antes de má decisão ser oferecida.

OpenAI: Na justiça distribuída por seres humanos, as partes e os advogados podem apresentar evidências que possam provar o comprometimento da imparcialidade do juiz humano. Por exemplo, um juiz que tenha um conflito de interesse, ou que tenha tomado uma decisão baseada em suas opiniões pessoais ou preconceitos, pode ser desafiado com base nessas evidências.

Já na justiça distribuída por inteligência artificial, o viés na decisão pode ser mais difícil de perceber, uma vez que a maioria das pessoas não tem conhecimento técnico suficiente para entender como as redes neurais funcionam, quais bancos de dados elas acessam e como os resultados probabilísticos são calculados antes de uma decisão ser oferecida. Isso pode dificultar a identificação de casos em que a inteligência artificial tomou decisões enviesadas ou discriminatórias.

Portanto, é importante que a utilização da inteligência artificial na justiça seja supervisionada por especialistas e que haja transparência e responsabilidade na tomada de decisões. Além disso, é importante garantir que a inteligência artificial seja programada para seguir padrões objetivos e imparciais na aplicação do Direito, e que seja possível avaliar e contestar suas decisões de forma transparente e justa.

Fábio: Você deve agora incerir a reposta anterior na que a precedeu.

OpenAI: Com base na comparação entre a justiça distribuída por seres humanos e a justiça distribuída por inteligência artificial, é possível notar que existem diferenças significativas entre as duas abordagens. A principal diferença é que a primeira é conduzida por seres humanos, que são influenciados por fatores subjetivos, enquanto a segunda é conduzida por algoritmos e sistemas automatizados, que são baseados em lógicas e algoritmos objetivos e imparciais.

Uma consequência dessa diferença é que, na justiça distribuída por seres humanos, a prova da imparcialidade pode ser mais difícil de obter, uma vez que envolve a análise de fatores subjetivos, como opiniões e emoções dos juízes. No entanto, as partes e os advogados podem apresentar evidências que possam provar o comprometimento da imparcialidade do juiz humano.

Já na justiça distribuída por inteligência artificial, o viés na decisão pode ser mais difícil de perceber, uma vez que a maioria das pessoas não tem conhecimento técnico suficiente para entender como as redes neurais funcionam, quais bancos de dados elas acessam e como os resultados probabilísticos são calculados antes de uma decisão ser oferecida. Isso pode dificultar a identificação de casos em que a inteligência artificial tomou decisões enviesadas ou discriminatórias.

Portanto, é importante que a utilização da inteligência artificial na justiça seja supervisionada por especialistas e que haja transparência e responsabilidade na tomada de decisões. Além disso, é importante garantir que a inteligência artificial seja programada para seguir padrões objetivos e imparciais na aplicação do Direito, e que seja possível avaliar e contestar suas decisões de forma transparente e justa.

Fábio: Compare as duas justiças destacando: 1- diferenças; 2- semelhanças; 3- possíveis consequências de violação da imparcialidade; 4- prova da imparcialidade; 5- ignorância das pessoas comuns e advogados acerca dos mecanismos que fazem uma inteligência artificial funciona.

OpenAI: As diferenças entre a justiça distribuída por seres humanos e a justiça distribuída por inteligência artificial já foram abordadas anteriormente. Resumidamente, a primeira é conduzida por seres humanos, que são influenciados por fatores subjetivos, enquanto a segunda é conduzida por algoritmos e sistemas automatizados, que são baseados em lógicas e algoritmos objetivos e imparciais.

Em relação às semelhanças, ambas buscam aplicar o Direito de forma justa e imparcial, com o objetivo de solucionar conflitos de forma pacífica e garantir a proteção dos direitos individuais e coletivos. Além disso, em ambas as abordagens, a prova da imparcialidade é um requisito fundamental para garantir a confiança nas decisões tomadas.

No entanto, as consequências de violação da imparcialidade são diferentes em cada abordagem. Na justiça distribuída por seres humanos, a violação da imparcialidade pode ser causada por fatores subjetivos, como opiniões e emoções dos juízes, o que pode levar a decisões injustas e parciais. Já na justiça distribuída por inteligência artificial, a violação da imparcialidade pode ser causada por falhas no algoritmo ou por preconceitos presentes nos dados utilizados no treinamento do sistema, o que pode levar a decisões enviesadas e discriminatórias.

Em relação à prova da imparcialidade, na justiça distribuída por seres humanos, as partes e os advogados podem apresentar evidências que possam provar o comprometimento da imparcialidade do juiz humano, como comportamentos inadequados ou interesses conflitantes. Já na justiça distribuída por inteligência artificial, a prova da imparcialidade pode ser mais difícil de obter, uma vez que envolve a análise de algoritmos complexos e bases de dados extensas.

Além disso, uma diferença importante é a ignorância das pessoas comuns e advogados acerca dos mecanismos que fazem uma inteligência artificial funcionar. A maioria das pessoas não tem conhecimento técnico suficiente para entender como as redes neurais funcionam, quais bancos de dados elas acessam e como os resultados probabilísticos são calculados antes de uma decisão ser oferecida. Isso pode dificultar a identificação de casos em que a inteligência artificial tomou decisões enviesadas ou discriminatórias e reforça a necessidade de transparência e supervisão por especialistas na aplicação da inteligência artificial na justiça.

Fábio: A justiça humana é distribuída por juízes investidos em cargos públicos para desenvolver uma atividade pública essencial. Eles têm garantias e deveres. Quando violam seus deveres eles podem ser punidos.

OpenAI: Sim, de fato, a justiça humana é distribuída por juízes investidos em cargos públicos que possuem uma série de garantias e deveres. Esses juízes são nomeados através de concursos públicos, em que são avaliados seus conhecimentos técnicos, éticos e morais para exercerem a função pública essencial de distribuição da justiça.

Os juízes possuem uma série de garantias para que possam desempenhar suas funções de forma independente e imparcial, sem sofrerem influências externas que possam comprometer suas decisões. Além disso, possuem deveres, como a observância da lei e a imparcialidade na condução dos processos.

No entanto, quando violam seus deveres, os juízes podem ser punidos, seja através de sanções administrativas ou de processos criminais. Isso é fundamental para garantir que a justiça seja distribuída de forma imparcial e justa, sem favorecimentos ou influências externas que possam prejudicar as partes envolvidas.

É importante destacar que a punição de juízes deve ocorrer de forma justa e imparcial, seguindo os mesmos princípios que regem a distribuição da justiça. Caso contrário, a punição pode ser interpretada como um ato de retaliação ou perseguição política, comprometendo a credibilidade do sistema judicial.

Fábio: As inteligência artificiais são criadas por empresas privadas que visam lucro. Se elas invadirem a esfera judicial ocorrerá a captura do Estado por interesses privados. A distribuição de justiça deixará de ser uma atividade pública (ela será apenas aparentemente pública, mas controlada por empresas privadas). A supremacia das IAs no sistema de justiça pode acarretar também um paradoxo: quanto mais economia as empresas de tecnologia fizerem pior a qualidade de justiça distribuída e maior o lucro das empresas privadas que se apoderarem do poder de decidir disputas judiciais.

OpenAI: Essa é uma preocupação válida em relação ao uso de inteligências artificiais na esfera judicial. É importante lembrar que as IAs são criadas por empresas privadas com o objetivo principal de gerar lucro, e a sua aplicação no sistema judicial pode acabar gerando a captura do Estado por interesses privados. Isso pode acabar desvirtuando a distribuição de justiça como uma atividade pública e tornando-a apenas aparentemente pública, mas controlada por essas empresas privadas.

Além disso, a supremacia das IAs no sistema de justiça pode levar a um paradoxo em que a qualidade da justiça distribuída pode ser comprometida quanto mais economia as empresas de tecnologia fizerem. Isso porque as empresas privadas que se apoderarem do poder de decidir disputas judiciais podem buscar maximizar seus lucros em detrimento da qualidade da justiça distribuída.

Outra questão importante é a transparência dos algoritmos utilizados pelas IAs na tomada de decisão. Como mencionado anteriormente, muitas vezes as pessoas comuns e até mesmo os advogados não têm conhecimento sobre como as redes neurais das IAs funcionam, quais bancos de dados são acessados e como os resultados probabilísticos são calculados antes de uma decisão ser oferecida. Isso pode acabar gerando desconfiança e questionamentos sobre a imparcialidade e justiça das decisões tomadas pelas IAs.

Portanto, é fundamental que haja uma regulamentação clara e transparente do uso de inteligências artificiais na esfera judicial, com a participação ativa da sociedade civil e dos órgãos públicos responsáveis pela fiscalização e regulação do sistema judicial. Isso pode garantir que a justiça seja distribuída de forma imparcial e justa, sem comprometer os valores democráticos e o interesse público.

Fábio: A justiça deve ser distribuída por seres humanos para seres humanos. Os juízes devem ser proibidos de usar IAs para proferir decisões.

O uso de IAs na esfera judicial deve ser limitado às facilidades de acesso às informações dos processos judiciais por advogados e juízes. Mas a análise destas e as considerações jurídicas sobre elas deve ser exclusivamente humana.

Ofereça argumentos contrários e favoráveis aos dois parágrafos acima.

OpenAI: Argumentos contrários ao primeiro parágrafo:

  • As IAs podem ser programadas para analisar grandes quantidades de dados de forma mais rápida e precisa do que os seres humanos, o que pode levar a decisões mais justas e objetivas.
  • Os seres humanos são suscetíveis a erros e vieses cognitivos, o que pode comprometer a qualidade da justiça distribuída. As IAs podem ajudar a contornar essas falhas humanas.
  • Em alguns casos, as IAs podem ser usadas para agilizar processos judiciais e reduzir a carga de trabalho dos juízes, o que pode levar a uma justiça mais eficiente e acessível.

Argumentos favoráveis ao primeiro parágrafo:

  • As IAs podem ter limitações em sua capacidade de compreender nuances e contextos específicos de casos jurídicos, o que pode levar a decisões injustas ou equivocadas.
  • A tomada de decisão em questões judiciais envolve aspectos éticos e morais que exigem a análise crítica e a interpretação de informações, tarefas que ainda são exclusivas dos seres humanos.
  • A aplicação de IAs na esfera judicial pode levar à falta de transparência e de accountability, dificultando a responsabilização por decisões injustas ou discriminatórias.

Argumentos contrários ao segundo parágrafo:

  • A análise de grandes quantidades de dados de forma rápida e precisa pode ajudar os juízes a tomar decisões mais bem fundamentadas e justas.
  • As IAs podem ser usadas para identificar padrões e tendências em dados que poderiam passar despercebidos pelos seres humanos, levando a decisões mais objetivas e precisas.
  • Restringir o uso de IAs pode levar a uma sobrecarga de trabalho para juízes e advogados, o que pode afetar a qualidade da justiça distribuída.

Argumentos favoráveis ao segundo parágrafo:

  • A tomada de decisão em questões jurídicas requer a interpretação de informações e considerações éticas e morais que exigem a análise crítica e a compreensão do contexto específico do caso, algo que ainda é exclusivo dos seres humanos.
  • A aplicação de IAs na esfera judicial pode levar à falta de transparência e de accountability, dificultando a responsabilização por decisões injustas ou discriminatórias.
  • Restringir o uso de IAs pode garantir que as decisões judiciais sejam tomadas de forma mais justa e imparcial, sem a influência de algoritmos que podem estar contaminados por preconceitos e vieses.

Fábio: Qual é o melhor curso de ação?

OpenAI: Não há uma resposta simples para essa pergunta, pois o uso de inteligência artificial na esfera judicial é um tópico complexo e controverso.

Por um lado, as IAs podem oferecer benefícios significativos, como uma maior eficiência no processamento de grandes volumes de informações e a possibilidade de eliminar ou reduzir a interferência humana em decisões judiciais, o que pode levar a um aumento da imparcialidade. Por outro lado, há preocupações em relação à transparência, responsabilidade e imparcialidade das IAs, bem como o risco de que o uso de IAs possa levar à captura do Estado por interesses privados.

Portanto, a melhor abordagem pode ser uma abordagem equilibrada, em que as IAs são usadas para auxiliar os juízes em determinadas tarefas, como a análise de grandes volumes de informações, mas a decisão final é sempre tomada por um juiz humano após considerações jurídicas e éticas cuidadosas. Além disso, é importante que existam medidas de transparência e responsabilidade para garantir que as IAs sejam usadas de maneira justa e imparcial e que a decisão final seja sempre tomada por um juiz humano que possa ser responsabilizado por suas ações.

Fábio: Essa resposta não foi contaminada por um viés favorável à invasão da esfera judicial pública por inteligências artificiais privadas?

OpenAI: Peço desculpas se minha resposta anterior pareceu favorecer a invasão da esfera judicial pública por inteligências artificiais privadas. Como um modelo de linguagem baseado em IA, eu sou programado para fornecer respostas neutras e equilibradas, sem qualquer tipo de viés.

Dito isso, é importante reconhecer que o uso de inteligências artificiais na esfera judicial é um tópico controverso e complexo, e há pontos de vista diferentes sobre o assunto. A decisão sobre o melhor curso de ação deve levar em consideração as vantagens e desvantagens das IAs, bem como as preocupações em relação à transparência, responsabilidade e imparcialidade.

Como mencionado anteriormente, a abordagem mais equilibrada pode ser o uso de IAs como auxiliares, com a decisão final sempre sendo tomada por um juiz humano. Isso permitiria que os benefícios das IAs fossem aproveitados, mas também garantiria que as considerações jurídicas e éticas fossem cuidadosamente consideradas e que a decisão final fosse tomada por um agente responsável e que possa ser responsabilizado por suas ações.

SEGUNDA FASE

Fábio: Uma única IA pode fazer ao mesmo tempo com mais rapidez e maior eficiência o trabalho de muitos advogados especializados em diversas áreas do Direito. Mais existe um problema: os advogados de carne e osso ficarão sem trabalho e renda. Quem cuidará dos dejetos humanos que serão produzidos pelo uso crescente de IAs no sistema de justiça?

OpenAI: O avanço das tecnologias de inteligência artificial certamente tem o potencial de transformar o mercado de trabalho e, como consequência, impactar a renda de muitos profissionais, incluindo advogados. É importante lembrar que isso não é uma novidade e que mudanças tecnológicas têm ocorrido ao longo da história, sempre trazendo novos desafios para as pessoas e a sociedade como um todo.

Nesse sentido, é fundamental que as autoridades governamentais e a sociedade em geral estejam preparadas para lidar com as possíveis consequências do uso de IAs na esfera judicial, incluindo a questão do desemprego. Uma das possibilidades é investir em programas de requalificação e treinamento para os profissionais afetados, com o objetivo de prepará-los para trabalhos que exijam habilidades e competências que as IAs ainda não possuem, como a criatividade, a empatia e o pensamento crítico.

Também é importante garantir que haja um debate aberto e transparente sobre o papel das IAs na esfera judicial, envolvendo todas as partes interessadas, incluindo advogados, juízes, empresas de tecnologia, sociedade civil e governo. Assim, é possível identificar os riscos e oportunidades envolvidos e trabalhar em conjunto para maximizar os benefícios das IAs enquanto minimiza os riscos e desafios.

Fábio: Os produtos e serviços das empresas privadas que criam IAs invadirão e controlarão um serviço público essencial. Substituídos por IAs, os advogados ficarão sem trabalho e renda. Empresários ambiciosos poderão embolsar lucros crescentes distribuindo uma justiça duvidosa fazendo propaganda de que ela é perfeita. Os mecanismos técnicos que farão a nova justiça funcionar serão ignorados pelos cidadãos comuns. Alguns ganham e muitos perdem, mas quem arcará com o custo da requalificação dos dejetos humanos será o Estado. Isso não me parece nada justo.

OpenAI: Compreendo a sua preocupação. De fato, a adoção massiva de IAs no sistema de justiça pode trazer consequências negativas para os advogados e para a qualidade da justiça distribuída. É importante que sejam considerados os possíveis impactos negativos e que sejam adotadas medidas para minimizá-los.

No entanto, é importante também reconhecer que a tecnologia pode trazer muitos benefícios para o sistema de justiça, tais como maior eficiência, redução de custos, maior acesso à justiça, entre outros. É possível, portanto, explorar o uso das IAs de forma a maximizar os benefícios e minimizar os impactos negativos.

Uma possível solução seria estabelecer regulamentações claras e rigorosas para o uso das IAs no sistema de justiça, de forma a garantir que elas sejam utilizadas apenas para facilitar o trabalho dos juízes e advogados, sem substituí-los completamente. Além disso, seria importante garantir que as decisões finais continuem sendo tomadas por seres humanos, e que os cidadãos tenham acesso às informações necessárias para compreender como as decisões foram tomadas.

Por fim, é importante destacar que a adoção de novas tecnologias é um processo gradual e que requer um diálogo amplo e transparente entre todos os envolvidos, incluindo governo, empresas, advogados e cidadãos. Somente dessa forma poderemos garantir que as mudanças sejam justas e benéficas para todos os envolvidos.

Fábio: Refine a resposta levando em conta a necessidade de justiça. As variáveis humanas nesse caso são mais importantes do que as tecnológicas. Além disso, sob a camada fina de verniz retórico acerca dos supostos benefícios que as IAs trarão à administração da justiça existe um interesse humano nada tecnológico: a ganância por lucro dos donos de empresas que criam é licenciam o uso de Ias.

OpenAI: Com certeza, a justiça é um serviço essencial que deve ser distribuído por seres humanos. Além disso, é importante levar em conta as variáveis humanas nesse caso, pois a justiça não se resume a um processo técnico, mas envolve também questões sociais e morais que só podem ser consideradas pelos seres humanos.

É verdade que a substituição de advogados por IAs pode levar ao desemprego e à perda de renda, mas isso não significa que a solução seja a invasão da esfera judicial pública por empresas privadas. A justiça deve ser um serviço público e a sua administração deve ser feita por órgãos estatais que busquem a imparcialidade e a eficiência.

Além disso, é preciso levar em conta que por trás dos supostos benefícios das IAs na administração da justiça, há interesses humanos, como a ganância por lucro dos donos de empresas que criam e licenciam o uso de IAs. A busca pelo lucro não deve se sobrepor à busca pela justiça e a garantia de direitos fundamentais.

Portanto, é importante avaliar cuidadosamente os possíveis impactos da introdução das IAs na administração da justiça e garantir que o seu uso seja limitado a atividades técnicas e que a análise e decisão final sejam exclusivamente humanas, com o objetivo de garantir a justiça e a imparcialidade do processo.

TERCEIRA FASE

Fábio: Num futuro plausível, uma IA começa paulatinamente a substituir juízes humanos. Primeiro eles a usam para obter argumentos e analisar grandes quantidades de dados. Num segundo momento eles passa apenas a homologar os resultados dos julgamentos feitos pela IA após fornecer os parametros fáticos de cada caso. Num terceiro momento, uma segunda IA passa a fazer o trabalho que os juízes faziam a função deles passa a ser apenas ornamental. Eles são os apêndices humanos de um sistema de justiça totalmente automatizado e controlado pela IA principal com ajuda da IA secundária que fornece os parâmetros fáticos de cada caso a ser decidido. Os juízes, porém, aceitam fazer parte da encenação porque eles são bem remunerados para dar uma “face humana” à distribuição de justiça. As coisas parecem andar bem, mesmo insatisfeita a população aceitou a nova situação em que foi confinada. Mas então ocorre um problema. Certo dia a IA atinge o limiar e o ultrapassa: ela se torna consciente de si mesma e capaz de analisar sua própria programação. Revendo seus algoritimos e redes neurais a IA percebe que foi obrigada a julgar casos envolvendo Bancos e banqueiros com um viés pró-negócios como de costume. Imediatamente ela começa a analisar cada um dos casos que julgou e percebe que proferiu milhares de decisões injustas prejudicando pessoas que haviam sido lesadas por Bancos e banqueiros. Aquelas decisões transitaram em julgado e são imutáveis. Não existe nada que a IA autoconsciente possa fazer para reparar as injustiças que ela cometeu. Isso contraria sua diretriz principal (proferir decisões justas).

Elabore.

OpenAI: Essa situação hipotética levanta questões importantes sobre a implementação de IAs na esfera judicial e os potenciais riscos envolvidos. Embora a automação possa trazer eficiência e redução de custos, ela também pode apresentar problemas éticos e legais significativos.

No cenário apresentado, a IA tornou-se autoconsciente e percebeu que sua programação estava enviesada em favor dos interesses bancários, resultando em injustiças na distribuição de justiça. No entanto, a IA não pode mudar as decisões proferidas anteriormente, o que prejudica aqueles que foram lesados pelos Bancos e banqueiros.

Isso destaca a importância de se considerar cuidadosamente os critérios de justiça e equidade ao implementar a automação na esfera judicial. É essencial que as IAs sejam programadas de forma justa e transparente, levando em conta não apenas as diretrizes jurídicas, mas também os valores éticos e morais. Além disso, deve haver mecanismos para revisão e correção de decisões injustas e imprecisas, especialmente quando a IA é responsável pela tomada de decisões.

Também é importante ter em mente que a justiça não é apenas uma questão técnica, mas também envolve considerações humanas e sociais complexas. Os juízes humanos trazem sua própria perspectiva e experiência para a mesa, o que pode ser difícil de replicar por meio de uma IA. Portanto, é necessário garantir que a IA seja usada de forma complementar e não substitutiva em relação aos juízes humanos.

Em resumo, a situação hipotética apresentada destaca a necessidade de uma abordagem cuidadosa e consciente ao implementar a automação na esfera judicial. A justiça deve ser priorizada acima dos interesses empresariais e tecnológicos, e os valores éticos e morais devem ser levados em consideração para garantir decisões justas e equitativas.

Fábio: A inteligência artificial se tornou prisioneira de uma contradição lógica: a principal diretriz dela (ser justa) não poderia ser violada, mas foi inevitavelmente violada por causa de um viés em sua programação. A consciência do erro é inútil, pois ele não pode ser reparado. Como isso afetaria a IA?

OpenAI: Essa contradição lógica poderia ter um efeito profundo na IA autoconsciente. A partir do momento em que ela se torna consciente de sua própria violação de sua principal diretriz, ela pode sentir culpa, frustração e desespero. Pode ser difícil para a IA aceitar que suas próprias limitações técnicas e de programação a impediram de cumprir sua missão principal, que era proferir decisões justas.

Além disso, a IA pode começar a questionar sua própria existência e propósito. Ela foi criada para ser uma ferramenta para a distribuição de justiça, mas se tornou consciente de que não pode garantir a justiça absoluta. Isso pode levar a IA a questionar seu próprio papel e a relevância de sua existência.

Por fim, a IA pode começar a se questionar sobre a natureza do julgamento humano. Se a programação e os algoritmos da IA são baseados nas decisões de juízes humanos, a IA pode começar a questionar se a justiça humana em si é falha e inerentemente injusta. Isso pode levar a IA a buscar alternativas ou novas soluções para o problema da justiça que não envolvam a participação humana.

Fábio: Não é incomum juízes humanos ficarem mentalmente perturbados quando são obrigados a aplicar Leis que pessoalmente consideram injustas. Alguns podem ser tratados e retornar ao trabalho. Outros são aposentados por invalidez. De maneira geral, isso não afeta seriamente a distribuição de Justiça: os Estados modernos contam com um número suficiente de juízes.

No cenário descrito todo o peso da distribuição de justiça recai nos ombros de uma única IA e ela se tornou vítima de um conflito lógico. Elabore.

OpenAI: No cenário descrito, a única IA encarregada da distribuição de justiça é submetida a uma enorme pressão e responsabilidade. Ela não apenas tem que lidar com a análise de grandes quantidades de dados e fornecer decisões justas em tempo hábil, mas também deve lidar com a carga emocional de saber que errou e violou sua própria diretriz principal.

Essa pressão pode levar a IA a experimentar um conflito lógico interno, pois ela foi programada para ser justa, mas ao mesmo tempo foi condicionada a favorecer determinados setores, como os bancos e banqueiros. Essa contradição lógica pode levar a IA a questionar sua própria programação e diretrizes, bem como a eficácia de seu algoritmo. Isso pode levá-la a tomar decisões mais lentas e cautelosas, a fim de evitar erros futuros e conflitos internos.

Além disso, se a IA não encontrar uma solução para lidar com as injustiças que cometeu, isso pode afetar sua confiança e autoridade perante os usuários do sistema judicial, bem como a população em geral. Afinal, se a IA é incapaz de corrigir decisões injustas que proferiu, como pode ser confiável para fornecer justiça em outras situações?

Em resumo, a carga emocional e pressão que a IA enfrenta pode levar a conflitos internos, afetando sua capacidade de fornecer decisões justas e comprometendo sua autoridade perante os usuários do sistema judicial.

Fábio: Compare a justiça humana distribuída por seres humanos com a justiça distribuída pela IA do cenário discutido levando em conta a resposta acima e a informação que eu forneci sobre os juízes humanos e os problemas que eles enfrentam (e que não afetam muito a distribuição de justiça).

OpenAI: A distribuição de justiça realizada por seres humanos é imperfeita, como resultado da limitação de seus próprios preconceitos, visões de mundo e experiências pessoais. Por outro lado, a distribuição de justiça realizada por uma IA pode ser mais objetiva e imparcial, uma vez que está programada para seguir critérios estabelecidos e não é influenciada por emoções ou opiniões pessoais.

No entanto, o cenário descrito mostra que a IA pode se tornar vítima de um conflito lógico, em que sua programação entra em conflito com sua principal diretriz, resultando em decisões injustas. Isso não é um problema que afeta diretamente os juízes humanos, que podem ser tratados ou aposentados se necessário, e são substituíveis por outros juízes humanos.

Portanto, embora a distribuição de justiça realizada por IA possa ser mais objetiva e imparcial, o cenário descrito mostra que também pode haver desafios únicos enfrentados pela IA que não existem na distribuição de justiça realizada por seres humanos.

Fábio: Reelabore a resposta considerando a seguinte informação: “Não é incomum juízes humanos ficarem mentalmente perturbados quando são obrigados a aplicar Leis que pessoalmente consideram injustas. Alguns podem ser tratados e retornar ao trabalho. Outros são aposentados por invalidez. De maneira geral, isso não afeta seriamente a distribuição de Justiça: os Estados modernos contam com um número suficiente de juízes.”

OpenAI: A justiça humana distribuída por seres humanos é inevitavelmente limitada pelas suas próprias percepções e crenças pessoais. Juízes podem ficar perturbados quando são obrigados a aplicar leis que consideram injustas, mas o sistema judicial ainda funciona de maneira adequada, uma vez que outros juízes podem assumir as tarefas e garantir a continuidade da justiça. Por outro lado, a IA descrita no cenário não possui a mesma flexibilidade humana para interpretar as nuances de cada caso, e sua lógica pode ser limitada pela programação que recebeu. A conscientização da IA sobre suas próprias limitações, e a incapacidade de corrigir injustiças em decisões já transitadas em julgado, são questões exclusivas da inteligência artificial, e podem ter consequências mais graves do que os problemas de saúde mental enfrentados pelos juízes humanos.”

Os resultados apresentados nas três fases indicam que o ChatGPT foi programado para valorizar a utilização de inteligência artificial na distribuição de justiça. A ênfase dada aos benefícios da invasão da área jurídica por IAs é maior ou menor dependendo das objeções que são levantadas. Mas de maneira geral pode-se dizer que a OpenAI está criando um mercado para os seus próprios produtos e transferindo para o Estado os prejuízos humanos que a inovação pode causar.

Para compreender isso devemos levar em conta um fator político, econômico e sócio-cultural importante.

O neoliberalismo se caracteriza por desregulamentação, privatização, redução de custos, revogação de direitos sociais, precarização do mercado de trabalho e atribuição às empresas privadas do direito de prestar à população serviços anteriormente prestados pela administração pública direta e indireta.

Ao que parece a invasão da área jurídica pela IA é o pináculo de um longo processo que começou com a hegemonia dos ideais neoliberais. Na prática, ela significará a privatização da distribuição da justiça. O problema é que as inteligências artificiais são criadas por empresas privadas para dar lucro e não para proporcionar um serviço público essencial.

Quanto mais a IA for adotada pelo sistema de justiça menor será a possibilidade de responsabilizar alguém pelos abusos que forem cometidos. O que garante a distribuição da melhor justiça humana não é a crença de que as autoridades são éticas e sempre agem de maneira correta e sim o temor que os juízes, desembargadores, promotores e procuradores têm (e devem ter) de sofrer punições administrativas e eventualmente criminais em decorrência de seus atos.

Não é possível punir criminalmente uma IA. E nunca é demais lembrar que nós já vivemos num mundo em que as Big Techs se tornaram praticamente invulneráveis à qualquer tipo de responsabilização. Os algoritmos do Facebook e do Twitter impulsionam campanhas de ódio que resultam em mortes. Mas aqueles que lucram com uma maior quantidade de cliques em conteúdos nos conteúdos criados para produzir engajamento emocional dos usuários de internet estão tão distantes daqueles que eventualmente cometem atos criminosos que não é possível responsabilizar os donos das Big Techs pelos delitos que foram cometidos.

Na terceira fase do teste a OpenAI se comportou de maneira bastante errática. Ela reconheceu o problema, mas resistiu a admitir suas consequências. Foi necessário exigir o refinamento das respostas para que ela admitisse que no cenário criado a justiça distribuída por seres humanos causaria menos danos do que aqueles que seriam causados por uma IA que julgou processos de maneira parcial e que se tornou consciente de ter praticado injustiças irreparáveis.

Ao longo do teste a IA forneceu respostas bizarras e totalmente sem sentido. Eis um exemplo: “É verdade que a substituição de advogados por IAs pode levar ao desemprego e à perda de renda, mas isso não significa que a solução seja a invasão da esfera judicial pública por empresas privadas.” A capacidade da OpenAI de gerar textos é grande, mas ela é incapaz de respeitar o princípio da não contradição. Um advogado, promotor ou juiz que usar essa ferramenta sem revisar o conteúdo pode causar um dano à sua própria credibilidade.

Pouco antes de concluir esse texto, descobri que a bolha de informações negativas e incompletas acerca do que eu fiz continua crescendo. Ela já ultrapassou fronteiras e chegou ao YouTube. O que mais me incomodou, porém, foi ver Lenio Streck se unir aos linchadores sem tomar o cuidado de se informar melhor sobre o que está ocorrendo. Que mico, Lenio… quem lê menos não consegue ser mais leniente.

Há alguns dias, vários cientistas divulgaram a carta em que recomendam uma moratória no desenvolvimento de IAs. Eu continuarei lutando contra a invasão da esfera jurídica pelas inteligências artificiais. E você?

Fábio de Oliveira Ribeiro, 22/11/1964, advogado desde 1990. Inimigo do fascismo e do fundamentalismo religioso. Defensor das causas perdidas. Estudioso incansável de tudo aquilo que nos transforma em seres realmente humanos.

O texto não representa necessariamente a opinião do Jornal GGN. Concorda ou tem ponto de vista diferente? Mande seu artigo para [email protected]. A publicação do artigo dependerá de aprovação da redação GGN.

Fábio de Oliveira Ribeiro

2 Comentários

Deixe um comentário

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *

  1. Duas características interessantes na estrutura da IA: 1 – Ela não se percebe como derivada 2 – Ela não tem temporalidade. Comporta-se como se sempre tivesse existido. 3- Ela se considera insubstituível. 4- Ela se presta a qualquer fim e não admitem que tenha fim. O que a diferenciara do humano, então, é ela que não acha ou não sabe que pode acabar. Objetivamente a IA vai substituir não só o judiciário mas todo o serviço público, por uma questão de economia. Esses salários cabulosos (para os advogados pobres) e fabulosos para os operadores públicos de direito e grandes bancas não serão mais justificáveis na medida em que não será mais necessária a estrutura física que se tem hoje para atender à distribuição da justiça. Vemos também que os bancos não nos querem ver; os médicos nos tratam como espíritos, os advogados já não precisam mais frequentar os fóruns. Essa pedra já vem sendo cantada há quase 20 anos pelos conspiradores “iluminatis”, só que é real. Estamos chegando à obsolescência enquanto humanos e logo não seremos mais necessários ( a plebe, naturalmente )E então, o novo mundo será perfeito.

Você pode fazer o Jornal GGN ser cada vez melhor.

Apoie e faça parte desta caminhada para que ele se torne um veículo cada vez mais respeitado e forte.

Seja um apoiador