Como evitar o apocalipse da Inteligência Artificial, por Seth Baum

no Project Syndicate

Como evitar o apocalipse da Inteligência Artificial

por Seth Baum

Tradução de Caiubi Miranda

NOVA YORK – Os avanços recentes no campo da inteligência artificial foram absolutamente impressionantes. A IA está transformando praticamente todos os setores da sociedade, desde o transporte até a medicina e a defesa. Portanto, vale a pena considerar o que acontecerá quando se tornar ainda mais avançada do que já é.

A visão apocalíptica é que as máquinas acionadas por IA serão mais inteligentes que a humanidade, dominar o mundo e matar todos nós. Este cenário aparece frequentemente na ficção científica e é bastante fácil de descartar, considerando que os seres humanos continuam a exercer um controle firme. Mas muitos especialistas em IA levam a sério a perspectiva apocalíptica, e eles estão certos em fazê-lo. O resto da sociedade deveria imitá-los.

Para entender o que está em jogo, considere a distinção entre “AI estreito” e “inteligência artificial geral” (IAG). A AI estreita pode funcionar apenas em um domínio ou em alguns domínios por vez, de modo que, embora possa superar os humanos em certas tarefas, permanece sob controle humano.

O IAG, no entanto, pode raciocinar em uma ampla gama de domínios e, portanto, poderia replicar muitas capacidades intelectuais humanas, mantendo todas as vantagens de computadores, como a recuperação de memória perfeita. Com hardware de computador sofisticado, o IAG poderia superar a cognição humana. Na verdade, é difícil conceber um teto para os avançados que poderiam se tornar o IAG.

Como as coisas estão, a maior parte da IA ​​é estreita. By the way, até mesmo os sistemas mais avançados de hoje só têm quantidades limitadas de generalidade. Por exemplo, enquanto o sistema Google DeepMind AlphaZero foi capaz de se impor em Go, xadrez e shogi – o que o torna mais geral do que a maioria dos outros sistemas de inteligência artificial, que só pode ser aplicado a uma única atividade específica – mesmo assim. demonstrou capacidade apenas dentro dos limites limitados de certos jogos de tabuleiro altamente estruturados.

Muitas pessoas entendem a perspectiva de um IAG avançado. Alguns, como Selmer Bringsjord, do Rensselaer Polytechnic Institute, e Drew McDermott, da Universidade de Yale, argumentam que é impossível para a IA ultrapassar a humanidade. Outros, como Margaret A. Boden, da Universidade de Sussex e Oren Etzioni do Instituto Allen para a Inteligência Artificial, AI argumentam que nível humano pode ser possível no futuro distante, mas é muito cedo para começar a lidar com ele agora.

Esses céticos não são figuras marginais, como os rabugentos que tentam questionar a ciência da mudança climática. Eles são acadêmicos ilustres em ciência da computação e áreas afins, e suas opiniões devem ser levadas em conta.

No entanto, outros estudiosos ilustres entre eles David J. Chalmers University of New York, Allan Dafoe Yale University e Stuart Russell, da Universidade da Califórnia, Berkeley, Nick Bostrom Oxford University e da Yampolskiy Roman Universidade de Louisville – na verdade, eles temem que o IAG possa representar uma ameaça séria ou mesmo existencial à humanidade. Com especialistas de ambos os lados do debate, o resto de nós deve manter a mente aberta.

Além disso, o IAG é o foco de pesquisa e desenvolvimento significativos. Recentemente, realizei uma pesquisa com projetos de P & D do IAG e identifiquei 45 em 30 países em seis continentes. Muitas iniciativas ativas começam com grandes corporações, como Baidu, Facebook, Google, Microsoft e Tencent, e de universidades de elite, como Carnegie Mellon, Harvard e Stanford, assim como a Academia Chinesa de Ciências. Não seria sensato supor que nenhum desses projetos será bem-sucedido.

Outra maneira de pensar sobre a ameaça potencial do IAG é compará-lo com outros riscos catastróficos. Na década de 1990, o Congresso dos Estados Unidos considerou apropriado para a NASA rastrear grandes asteroides que poderiam colidir com a Terra, embora as chances de isso acontecer sejam de um em cada 5.000 por século. Com o IAG, as chances de uma catástrofe no próximo século poderiam ser uma em 100, ou mesmo uma em cada dez, a julgar pelo ritmo da P & D e pela magnitude da preocupação dos especialistas.

A questão, então, é o que fazer sobre isso. Para começar, precisamos garantir que a P & D seja realizada de maneira responsável, segura e ética. Isso exigirá um diálogo mais profundo entre aqueles que trabalham no campo da IA ​​e legisladores, cientistas sociais e cidadãos interessados. Aqueles que trabalham no campo conhecem a tecnologia e eles a projetarão de acordo com os padrões acordados; mas eles não devem decidir sozinhos quais serão esses padrões. Muitas pessoas que estão desenvolvendo aplicativos de IA não estão acostumadas a pensar sobre as implicações sociais de seu trabalho. Para que isso mude, eles devem ser expostos a perspectivas externas.

Os formuladores de políticas também terão que lidar com as dimensões internacionais do IAG. Atualmente, a maior parte da P & D no IAG ocorre nos Estados Unidos, na Europa e na China, mas grande parte do código é aberto, o que significa que, potencialmente, o trabalho pode ser feito de qualquer lugar. Consequentemente, o estabelecimento de normas e regras básicas é, em última análise, uma tarefa para a comunidade internacional como um todo, embora os centros de P & D devam assumir a liderança.

Olhando para o futuro, alguns esforços para abordar os riscos colocados pela IAG pode se juntar iniciativas políticas que foram implementadas ao IA estreita, como o novo bipartidária Caucus IA lançado por John Delaney, congressista democrata de Maryland. Existem muitas oportunidades de sinergia entre aqueles que trabalham nos riscos de curto prazo IA e aqueles que pensam no longo prazo.

No entanto, independentemente de o IA estreito e o IAG serem considerados em conjunto ou separadamente, o que mais importa é que tomemos medidas construtivas agora para minimizar o risco de uma catástrofe no futuro. Não é uma tarefa que podemos esperar concluir no último minuto.

 
 
Redação

5 Comentários

Deixe um comentário

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *

  1. A I.A. dando uma mãozinha no debate do AGW…

    Os modelos computacionais climáticos do IPCC recheados de poder de processamento e técnicas de AI (especialista e não geral), recebem como parâmetros que o CO2 antropogênico influi diretamente na temperatura da terra à medida que o homem emite mais CO2. O sistema, considerando este parâmetro como verdadeiro, indica a formação de uma bolha quente aos arredores do equaor a uma altura de mais ou menos 10km. 

    Acontece que esta bolha nunca foi encontrada. 

    A I.A. está, pelo menos, contribuindo para mostrar que os cientistas que questionam tal teoria não sejam assim tão rabugentos e sim, simples cientistas fazendo seu dever.

    Lembrando que a concentração de CO2 na terra continua aumentando e no entanto, a temperatura média da terra este ano vem caindo paradoxalmente à teoria.

     

    YEAR MO GLOBE NHEM. SHEM. TROPIC USA48 ARCTIC AUST

    2017 01 +0.33 +0.31 +0.34 +0.10 +0.27 +0.95 +1.22
    2017 02 +0.38 +0.57 +0.19 +0.08 +2.15 +1.33 +0.21
    2017 03 +0.23 +0.36 +0.09 +0.06 +1.21 +1.24 +0.98
    2017 04 +0.27 +0.28 +0.26 +0.21 +0.89 +0.22 +0.40
    2017 05 +0.44 +0.39 +0.49 +0.41 +0.10 +0.21 +0.06
    2017 06 +0.21 +0.33 +0.10 +0.39 +0.50 +0.10 +0.34
    2017 07 +0.29 +0.30 +0.27 +0.51 +0.60 -0.27 +1.03
    2017 08 +0.41 +0.40 +0.42 +0.46 -0.55 +0.49 +0.77
    2017 09 +0.54 +0.51 +0.57 +0.54 +0.29 +1.06 +0.60
    2017 10 +0.63 +0.66 +0.59 +0.47 +1.20 +0.83 +0.86
    2017 11 +0.36 +0.33 +0.38 +0.26 +1.35 +0.68 -0.12
    2017 12 +0.41 +0.50 +0.33 +0.26 +0.44 +1.36 +0.36
    2018 01 +0.26 +0.46 +0.06 -0.12 +0.58 +1.36 +0.42
    2018 02 +0.20 +0.24 +0.16 +0.03 +0.91 +1.19 +0.18
    2018 03 +0.24 +0.39 +0.10 +0.06 -0.33 -0.33 +0.59
    2018 04 +0.21 +0.31 +0.10 -0.13 -0.01 +1.02 +0.68

     

    https://www.uah.edu/essc/weather-products/global-temperature-report

     

    1. Eu espero viver mais uns 40 anos, pelo menos.

      Só para conferir as predições desta turma climatológica. Veremos quem tem razão.

    2. explicando:

      a terceira coluna é que interessa. Equivale à temperatura média da terra na estratosfera. 

      2018 04 +0.21

      +021 significa média global de 14.21 graus centígrados no mês de Abril de 2018.

       

      2017 04 +0.27

       

      significa média global de 14.27 graus centígrados no mês de Abril de 2017.

       

       

    1. Exatamente.
       

      Exatamente, por exemplo, aquela burrice coletiva que ao ser manipulada pelo meios de comunicação de massa é capaz de derrubar governos ou eleger déspostas.

Você pode fazer o Jornal GGN ser cada vez melhor.

Apoie e faça parte desta caminhada para que ele se torne um veículo cada vez mais respeitado e forte.

Seja um apoiador