Inteligência Artificial não segrega a Burrice Humana
por Fernando Nogueira da Costa
Para compartilhar meu aprendizado, apresento uma síntese de uma série de reportagens publicadas pelo New York Times e divulgadas no Brasil pela Folha de S.Paulo a partir de 26 de junho de 2023. Denominou-as de Inteligência Artificia (IA): Modo de Usar.
No fim da década de 1950, muito antes da existência da internet, cientistas de dados já pretendiam construir uma máquina computacional capaz de realizar o possível de o cérebro humano fazer com habilidades como raciocínio, solução de problemas, aprender tarefas novas e comunicar-se usando uma linguagem natural. O progresso foi relativamente lento até 2012, quando a ideia de rede neural transformou a pesquisa.
A rede neural é um sistema matemático, tendo como modelo de funcionamento o cérebro humano, capaz de identificar padrões estatísticos em dados para aprender habilidades. É composto de camadas de neurônios artificiais: a primeira camada recebe os dados de entrada e a última camada emite os resultados. Nem mesmo seus criadores sempre entendem o processamento das camadas intermediárias.
Parece ser um cérebro computadorizado. Na realidade, é um sistema matemático para detectar rotinas estatísticas em big data, ou seja, em um volume expressivo de dados. O cérebro humano não consegue os computar, diretamente, sem esse apoio.
Em 2018, empresas como Google, Microsoft e OpenAI começaram a construir modelos neurais de linguagem. Passaram a ser “treinados” com quantidades vastas de texto da internet, incluindo artigos da Wikipedia, livros digitais, papers acadêmicos etc.
Esses sistemas aprenderam a escrever textos em prosa e códigos de computador diferenciados e a “conversar” com interlocutor humano. A LLM (sigla de Large Language Model ou Grande Modelo de Linguagem) é um tipo de rede neural capaz de aprender habilidades ao analisar quantidades vastas de textos obtidos na internet. Prevê a palavra seguinte dedutiva em uma sequência rotineira do lugar comum sobre o assunto.
A IA generativa é uma tecnologia criadora de conteúdos – inclusive texto, imagens, vídeo e códigos de computador – ao identificar padrões em grandes volumes de dados de treinamento e criar material novo e original com características semelhantes. Exemplos de IA generativa para imagens são o DALL-E, o Midjourney e o Remini.
Para texto, há cinco opções acessíveis no Brasil: ChatGPT (versão paga e gratuita com login); Bing (gratuito, com limite diário de perguntas); Perplexity (gratuito, funciona sem login e indica links das informações nas quais se basearam as respostas); Jasper (pago, oferece um período de teste gratuito); Bard (gratuito com login via conta do Google).
Em uma dessas plataformas, basta digitar perguntas (prompt) na caixa de texto e o chatbot responderá em segundos. Pequenas mudanças nos prompts dão outra resposta.
Os Grandes Modelos de Linguagem (LLMs) apareceram há cinco anos. São capazes de redigir mensagens, apresentações e memorandos e até mesmo traduzir ou dar aulas particulares de uma língua estrangeira.
Todo sistema de IA precisa de uma meta ou função objetiva. Ela pode ser simples ou complexa se for emergente de interações entre vários componentes. Dada uma sequência de texto, a função objetiva básica é antecipar o seguinte.
Ao coletar uma grande quantidade de dados em treinamento, o chabot é ensinado como escrever. Há um repositório colossal de texto em páginas tiradas da internet. Vai desde postagens de blogs e tuítes até artigos da Wikipedia e reportagens jornalísticas.
Algumas bibliotecas de dados gratuitas, como o repositório Common Crawl de dados da web, estão disponíveis ao público. Juntando dados proprietários ou especializados, quanto mais dados e mais diversificadas forem as fontes, melhor será o modelo.
Antes de colocar os dados no modelo, é necessário decompô-los em unidades chamadas tokens. Podem ser palavras, frases ou mesmo caracteres individuais. Transformar texto em pedaços pequenos ajuda um modelo a analisá-los mais facilmente.
Depois dos dados serem tokenizados, é possível montar o “cérebro” da IA, isto é, o tipo de sistema conhecido como rede neural. É uma teia complexa de nodos (ou “neurônios”) interconectados, mas a Ciência de Rede leva a processar toda a informação armazenada.
Em um modelo transformador, essas redes podem analisar múltiplos pedaços de texto ao mesmo tempo de maneira rápida. Os modelos transformadores são a chave de sistemas como o ChatGPT, sigla de “Transformador Generativo Pré-treinado”.
Treinar a rede neural implica em o modelo analisar os dados, token por token, identificando padrões e relações. Assim como escrevemos mensagens no Whatsapp a partir de sugestões lógicas, a rede pode observar, em geral, “olá” ser seguido por um nome próprio ou “abraço” vir antes de uma assinatura. Ao identificar esses padrões, a IA aprende a deduzir mensagens com sentido.
O sistema também desenvolve um senso de contexto. Por exemplo, dependendo das palavras em torno, aprende se “banco” indica uma instituição financeira ou um móvel para se sentar.
Ao aprender esses padrões, o modelo transformador desenha uma representação matemática complexa da linguagem humana. Não precisa analisar palavras uma a uma, de cada vez, pois analisa uma sentença inteira de uma vez. Essa técnica chamada self-attention permite o modelo enfocar as palavras específicas realmente importantes para a compreensão do sentido da sentença.
Ele rastreia essas relações ao usar valores numéricos como parâmetros. São definidores da estrutura e comportamento da linguagem. Para adivinhar quais serão as próximas palavras, LLMs possuem centenas de bilhões de parâmetros ou até mais.
O treinamento pode levar bastante tempo por exigir quantidades imensas de potência de computação. Mas, quando tiver sido feito, o sistema estará quase pronto para tarefas.
Se os LLMs aprenderem a prever a palavra seguinte em uma sequência, repetidamente, eles podem acabar conquistando outras habilidades inesperadas, como, por exemplo, escrever código de computador. São emergentes de interações.
Quando um grande modelo de linguagem é treinado, ele precisa ser calibrado para uma tarefa específica. Deve entender inclusive termos dos diversos jargões profissionais.
Para depurar o treinamento, solicita-se várias tarefas a serem examinadas por pessoas capazes de avaliar sua precisão e, então, introduzir suas avaliações de volta no modelo. Desse modo, ensinado por inteligência humana, ele melhora progressivamente. Essa abordagem é conhecida como aprendizagem de reforço com feedback humano.
Esse reinforcement learning é uma técnica para ensinar um modelo de IA a encontrar o melhor resultado por meio de tentativa e erro. Com base em seus resultados, recebe incentivos ou críticas de um algoritmo capaz de dar retorno sobre seu desempenho.
Quando o chatbot tiver sido treinado e depurado, ele estará pronto para ser usado. Depois de construir algum tipo de interface de usuário para ele como interconexão, ele começará a dar respostas ao solicitado. Mas é recomendável monitorar esse novo assistente. Sistemas de IA podem ser erráticos ao “falar” mentiras plausíveis.
Aprendem habilidades sozinhos ao identificar padrões estatísticos em volumes imensos de informação. Muitos desses dados vêm de sites como Wikipedia e Reddit ou outras fontes de informação útil encontrada na internet. Mas ela também está repleta de falsidades, discursos de ódio e outros tipos de lixo, típicos da burrice humana. Os chatbots absorvem tudo, incluindo vieses explícitos e implícitos nos textos recolhidos.
Como eles misturam e combinam o aprendizado, para gerar texto inteiramente novo, eles frequentemente criam linguagem convincente de algo totalmente errado ou não existente em seus dados de treinamento. Pesquisadores de IA chamam de “alucinação” essa propensão a inventar coisas, desde respostas sem vir ao caso até bobagem factualmente incorretas. Imagine o dano, caso ele não depurar as redes bolsonaristas…
O mundo das redes sociais lhes dá algumas pistas sobre a verdade ou a mentira, mas não sabem necessariamente se o gerado é verdadeiro ou falso. O antropomorfismo tem a tendência a enxergar padrões e atribuir qualidades humanas a entidades não humanas. O chatbot junta palavras como humanos e dá a impressão equivocada de ser capaz de raciocinar sempre como os humanos inteligentes – e não como os burros…
O receio é esses bots capacitar trapaças na internet, marqueteiros sem escrúpulos e políticos golpistas a disseminar desinformação até com falsas imagens aparentemente reais. Já sentimos os efeitos dessa rede de ódio, recentemente, no Brasil.
Fernando Nogueira da Costa – Professor Titular do IE-UNICAMP. Obras (Quase) Completas em livros digitais para download gratuito em http://fernandonogueiracosta.wordpress.com/). E-mail: [email protected].
Você pode fazer o Jornal GGN ser cada vez melhor.
Apoie e faça parte desta caminhada para que ele se torne um veículo cada vez mais respeitado e forte.