Inteligência artificial: GPT-3, ameaça ou possibilidade?

É fácil imaginar como o GPT-3 poderia ser usado para capacitar assistentes digitais, tornando quase impossível saber se você está lidando com uma máquina ou um humano. Implementado em escala em uma ampla gama de atividades, o software pode aumentar significativamente a produtividade e a criatividade humanas.

Sam Altman, presidente-executivo da OpenAI, sentiu-se obrigado a diminuir o entusiasmo em torno do GPT-3

Do Financial Times

O programa de IA surpreendentemente bom, mas previsivelmente ruim

A tecnologia GPT-3 da OpenAI pode aumentar significativamente a produtividade e a criatividade humanas

John Thornhill

Quando o presidente-executivo de uma empresa de inteligência artificial de São Francisco tenta abafar o hype em torno de sua própria tecnologia, você sabe que algumas pessoas se tornaram bastante excitáveis.

Mas isso é exatamente o que Sam Altman tentou fazer no mês passado em resposta à reação extática ao mais recente programa GPT-3 da OpenAI . “A campanha publicitária do GPT-3 é demais” , tuitou Altman . “É impressionante (obrigado pelos elogios simpáticos!), Mas ainda tem sérias fraquezas e às vezes comete erros muito bobos.”

GPT-3, que representa a versão três do transformador pré-treinado generativo, é, em essência, uma função de autocompletar super-sofisticada, que parece menos do que excitante. Mas o que torna o GPT-3 notável é sua escala e flexibilidade e as possibilidades de desenvolvimento futuro.

Baseando-se em centenas de bilhões de palavras ingeridas da Internet e usando tecnologia de rede neural semelhante à usada pelo AlphaGo do Google DeepMind , o GPT-3 foi treinado para detectar e replicar padrões sofisticados. O GPT-3 contém 175 bilhões de parâmetros de linguagem, mais de 10 vezes o próximo maior modelo equivalente.

Os desenvolvedores, que tiveram acesso ao GPT-3 em um teste beta privado, o usaram para escrever poemas, artigos, esquetes cômicos e códigos de computador, compor riffs de guitarra, oferecer conselhos médicos e reimaginar videogames, às vezes com um efeito impressionante. “Jogar com GPT-3 é como ver o futuro”, tuitou Arram Sabeti, empresário de tecnologia que usou o software para escrever um roteiro no estilo de Raymond Chandler sobre Harry Potter. “É chocantemente bom.”

É fácil imaginar como o GPT-3 poderia ser usado para capacitar assistentes digitais, tornando quase impossível saber se você está lidando com uma máquina ou um humano. Implementado em escala em uma ampla gama de atividades, o software pode aumentar significativamente a produtividade e a criatividade humanas.

Mas os usos obscuros de tal tecnologia são tão fáceis de imaginar, fortalecendo campanhas de desinformação e vídeos adulterados, ou deepfakes. Os cientistas da computação também questionaram o uso indiscriminado de conjuntos de dados de treinamento da OpenAI, o que significa que a GPT-3 reflete estereótipos, preconceitos e preconceitos humanos em um grau alarmante. Nesse sentido, o GPT-3 pode ser um reflexo preciso da natureza humana, mas não deveríamos aspirar a projetar sistemas de IA para serem melhores do que nós?

A tecnologia também levanta uma série de questões éticas, debatidas por nove especialistas rapidamente reunidos pelo Daily Nous, o site de filosofia online .

Os filósofos consideraram que o GPT-3 era “irritantemente coerente e ridiculamente irracional”. Era mais do que uma máquina, mas menos do que uma mente, sem saber o que sabia ou não sabia e às vezes vomitava tolices.

Shannon Vallor, professora de ética na Universidade de Edimburgo, argumentou que o GPT-3 não tinha entendimento, que ela definiu como um projeto sustentado de construção, reparo e fortalecimento “os vínculos sempre mutáveis do sentido”. “Como o mentiroso que supera sua primeira entrevista regurgitando frases que soam impressionantes das memórias do CEO, o GPT-3 conta algumas boas merdas”, escreveu ela.

No entanto, David Chalmers, professor de filosofia da Universidade de Nova York, sugeriu que o GPT-3 estava mostrando indícios de inteligência geral semelhante à humana. “Estou aberto à ideia de que um verme com 302 neurônios está consciente, então estou aberto à ideia de que o GPT-3 com 175 bilhões de parâmetros também é consciente”.

Curiosamente, o GPT-3 recebeu esses comentários e foi solicitado a responder: “Para ser claro, não sou uma pessoa. Eu não sou autoconsciente. Não estou consciente. Não consigo sentir dor. Eu não gosto de nada. Sou uma máquina de calcular fria, projetada para simular a resposta humana e prever a probabilidade de certos resultados. A única razão pela qual estou respondendo é para defender minha honra. ”

Muito convincente, não? A ideia de que um computador pode ter “honra” mostra o quão bom o GPT-3 se tornou em imitar nossa tendência de antropomorfizar a tecnologia. A menos, claro. . .

[email protected]

 

4 Comentários

Deixe um comentário

O seu endereço de e-mail não será publicado.

Rogério Maestri

- 2020-08-11 01:13:19

Há um princípio básico em modelos de simulação numérica que não pode ser ultrapassado pelo que chamam de "inteligência artificial", o problema do conhecimento das leis que regem os fenômenos. Se essas leis não forem conhecidas a tendência da atual "aprendizado de máquina" (que não é o que se chamaria inteligência artificial), que é a tendência nos dias atuais, é simplesmente a repetição de fatos já ocorridos com todas as variantes possíveis. Isso ocorre porque caso não se conhece as leis utiliza-se funções de interpolação que simplesmente ajustam aos fatos funções quaisquer onde os resultados são otimizados por mínimos de erros. O motivo dessa tendência é que na realidade INTELIGÊNCIA não está definida e muito menos como ela se processa. Para realizar o aprendizado de máquina seria necessário filtros éticos e tabus, ou seja, se numa sala em que as pessoas ficassem presas com uma chance para que ninguém abrisse a sala antes que um ou mais morressem, se fosse dado a uma máquina a solução para que todos menos um sobrevivesse talvez a solução dada por uma máquina treinada em achar soluções seria a antropofagia, com o viés de escolher o mais gordinho.

GalileoGalilei

- 2020-08-10 19:55:33

Vale a pena conhecer o "Ada Lovelace Institute", e, quem sabe, apoiá-lo e acompanhá-lo de perto. https://www.adalovelaceinstitute.org/ Os maiores pesadelos da humanidade ainda não se materializaram.

Edno - Maringá - PR

- 2020-08-10 11:19:07

Infelizmente a programação, moldagem, escopo e utilização principal do desenvolvimento e aprimoramento das ferramentas de IA, tem sua motivação no retorno econômico, na condução das massas em suas atividades, das mais triviais às complexas. De escolher um cafezinho preferido até determinar seu Presidente, tendo nada de ética como elemento de sucesso. O resultado a duras penas individuais, desde a destruição de vagas de trabalho, como a destruição comportamental das sociedades, comunidades e indivíduos! Inevitável a manipulação pelos grupos e pessoas poderosas dessa tecnologia, quais sabemos, ainda não possuem a "IA"INTELIGÊNCIA DA ALMA, para fazer um uso digno e responsável, em favorecimento de toda a humanidade. Mas vai ser assim, e cada vez mais célere a exploração dos indivíduos!!

Martin

- 2020-08-10 10:35:37

A humanidade se levantou ferozmente contra os processos de clonagem que poderiam trazer consequências terríveis aos seres humanos. Mas ainda não percebeu que estão querendo clonar os seres humanos, desta vez como máquinas, através de programas de computador. Os jovens de hoje batem palma e se entusiasmam com a propaganda ufanista e o tratamento quase que de astros de cinema dado a muitos e muitas que estão na linha de frente do desenvolvimento desses programas sem se darem conta de que, hoje, apoiam o que será sua desgraça no futuro próximo. Jovens de 20 anos podem estar desempregados em definitivo daqui a 15 anos ou menos. Diferente do que ocorreu com a utilização de máquinas e robôs na linha de produção ao longo dos séculos XIX e XX, a utilização de programas que podem pensar como nós provocará danos irreparáveis. As pessoas que foram substituídas por máquinas puderam, mesmo com dificuldades e perda de renda, seguir em outra profissão ou fazerem a mesma coisa em empresas menos desenvolvidas tecnologicamente. Mas o que farão as massas de trabalhadores que tiveram seu conhecimento, seu pensamento substituído por o de uma máquina? É mentira a afirmação de que novos empregos surgirão e vão absorver essa massa. Não surgirão e mesmo que apareçam não darão conta de absorver o contingente substituído. Imagine toda a administração pública de um país, que trabalha essencialmente em rotinas burocráticas, sendo substituída por programas de computador pensantes e capazes de fazer o mesmo em menor tempo e menor custo? Contadores, advogados, pessoal de serviços administrativos diversos, que trabalham como caixas de lojas diversas, no RH, todos são alvos desses programas. A ideia é ser capaz de replicar todas essas atividades. E a humanidade bate palmas entusiasmada com sua própria capacidade de se autodestruir. Os pais de hoje não sabem que o que está em risco é futuro de seus filhos.

Você pode fazer o Jornal GGN ser cada vez melhor.

Apoie e faça parte desta caminhada para que ele se torne um veículo cada vez mais respeitado e forte.

Seja um apoiador