Como evitar o apocalipse da Inteligência Artificial, por Seth Baum

no Project Syndicate

Como evitar o apocalipse da Inteligência Artificial

por Seth Baum

Tradução de Caiubi Miranda

NOVA YORK – Os avanços recentes no campo da inteligência artificial foram absolutamente impressionantes. A IA está transformando praticamente todos os setores da sociedade, desde o transporte até a medicina e a defesa. Portanto, vale a pena considerar o que acontecerá quando se tornar ainda mais avançada do que já é.

A visão apocalíptica é que as máquinas acionadas por IA serão mais inteligentes que a humanidade, dominar o mundo e matar todos nós. Este cenário aparece frequentemente na ficção científica e é bastante fácil de descartar, considerando que os seres humanos continuam a exercer um controle firme. Mas muitos especialistas em IA levam a sério a perspectiva apocalíptica, e eles estão certos em fazê-lo. O resto da sociedade deveria imitá-los.

Para entender o que está em jogo, considere a distinção entre “AI estreito” e “inteligência artificial geral” (IAG). A AI estreita pode funcionar apenas em um domínio ou em alguns domínios por vez, de modo que, embora possa superar os humanos em certas tarefas, permanece sob controle humano.

O IAG, no entanto, pode raciocinar em uma ampla gama de domínios e, portanto, poderia replicar muitas capacidades intelectuais humanas, mantendo todas as vantagens de computadores, como a recuperação de memória perfeita. Com hardware de computador sofisticado, o IAG poderia superar a cognição humana. Na verdade, é difícil conceber um teto para os avançados que poderiam se tornar o IAG.

Como as coisas estão, a maior parte da IA ​​é estreita. By the way, até mesmo os sistemas mais avançados de hoje só têm quantidades limitadas de generalidade. Por exemplo, enquanto o sistema Google DeepMind AlphaZero foi capaz de se impor em Go, xadrez e shogi – o que o torna mais geral do que a maioria dos outros sistemas de inteligência artificial, que só pode ser aplicado a uma única atividade específica – mesmo assim. demonstrou capacidade apenas dentro dos limites limitados de certos jogos de tabuleiro altamente estruturados.

Muitas pessoas entendem a perspectiva de um IAG avançado. Alguns, como Selmer Bringsjord, do Rensselaer Polytechnic Institute, e Drew McDermott, da Universidade de Yale, argumentam que é impossível para a IA ultrapassar a humanidade. Outros, como Margaret A. Boden, da Universidade de Sussex e Oren Etzioni do Instituto Allen para a Inteligência Artificial, AI argumentam que nível humano pode ser possível no futuro distante, mas é muito cedo para começar a lidar com ele agora.

Esses céticos não são figuras marginais, como os rabugentos que tentam questionar a ciência da mudança climática. Eles são acadêmicos ilustres em ciência da computação e áreas afins, e suas opiniões devem ser levadas em conta.

No entanto, outros estudiosos ilustres entre eles David J. Chalmers University of New York, Allan Dafoe Yale University e Stuart Russell, da Universidade da Califórnia, Berkeley, Nick Bostrom Oxford University e da Yampolskiy Roman Universidade de Louisville – na verdade, eles temem que o IAG possa representar uma ameaça séria ou mesmo existencial à humanidade. Com especialistas de ambos os lados do debate, o resto de nós deve manter a mente aberta.

Além disso, o IAG é o foco de pesquisa e desenvolvimento significativos. Recentemente, realizei uma pesquisa com projetos de P & D do IAG e identifiquei 45 em 30 países em seis continentes. Muitas iniciativas ativas começam com grandes corporações, como Baidu, Facebook, Google, Microsoft e Tencent, e de universidades de elite, como Carnegie Mellon, Harvard e Stanford, assim como a Academia Chinesa de Ciências. Não seria sensato supor que nenhum desses projetos será bem-sucedido.

Outra maneira de pensar sobre a ameaça potencial do IAG é compará-lo com outros riscos catastróficos. Na década de 1990, o Congresso dos Estados Unidos considerou apropriado para a NASA rastrear grandes asteroides que poderiam colidir com a Terra, embora as chances de isso acontecer sejam de um em cada 5.000 por século. Com o IAG, as chances de uma catástrofe no próximo século poderiam ser uma em 100, ou mesmo uma em cada dez, a julgar pelo ritmo da P & D e pela magnitude da preocupação dos especialistas.

A questão, então, é o que fazer sobre isso. Para começar, precisamos garantir que a P & D seja realizada de maneira responsável, segura e ética. Isso exigirá um diálogo mais profundo entre aqueles que trabalham no campo da IA ​​e legisladores, cientistas sociais e cidadãos interessados. Aqueles que trabalham no campo conhecem a tecnologia e eles a projetarão de acordo com os padrões acordados; mas eles não devem decidir sozinhos quais serão esses padrões. Muitas pessoas que estão desenvolvendo aplicativos de IA não estão acostumadas a pensar sobre as implicações sociais de seu trabalho. Para que isso mude, eles devem ser expostos a perspectivas externas.

Os formuladores de políticas também terão que lidar com as dimensões internacionais do IAG. Atualmente, a maior parte da P & D no IAG ocorre nos Estados Unidos, na Europa e na China, mas grande parte do código é aberto, o que significa que, potencialmente, o trabalho pode ser feito de qualquer lugar. Consequentemente, o estabelecimento de normas e regras básicas é, em última análise, uma tarefa para a comunidade internacional como um todo, embora os centros de P & D devam assumir a liderança.

Olhando para o futuro, alguns esforços para abordar os riscos colocados pela IAG pode se juntar iniciativas políticas que foram implementadas ao IA estreita, como o novo bipartidária Caucus IA lançado por John Delaney, congressista democrata de Maryland. Existem muitas oportunidades de sinergia entre aqueles que trabalham nos riscos de curto prazo IA e aqueles que pensam no longo prazo.

No entanto, independentemente de o IA estreito e o IAG serem considerados em conjunto ou separadamente, o que mais importa é que tomemos medidas construtivas agora para minimizar o risco de uma catástrofe no futuro. Não é uma tarefa que podemos esperar concluir no último minuto.

Redação

Redação

View Comments

  • A I.A. dando uma mãozinha no debate do AGW...

    Os modelos computacionais climáticos do IPCC recheados de poder de processamento e técnicas de AI (especialista e não geral), recebem como parâmetros que o CO2 antropogênico influi diretamente na temperatura da terra à medida que o homem emite mais CO2. O sistema, considerando este parâmetro como verdadeiro, indica a formação de uma bolha quente aos arredores do equaor a uma altura de mais ou menos 10km. 

    Acontece que esta bolha nunca foi encontrada. 

    A I.A. está, pelo menos, contribuindo para mostrar que os cientistas que questionam tal teoria não sejam assim tão rabugentos e sim, simples cientistas fazendo seu dever.

    Lembrando que a concentração de CO2 na terra continua aumentando e no entanto, a temperatura média da terra este ano vem caindo paradoxalmente à teoria.

     

    YEAR MO GLOBE NHEM. SHEM. TROPIC USA48 ARCTIC AUST

    2017 01 +0.33 +0.31 +0.34 +0.10 +0.27 +0.95 +1.22
    2017 02 +0.38 +0.57 +0.19 +0.08 +2.15 +1.33 +0.21
    2017 03 +0.23 +0.36 +0.09 +0.06 +1.21 +1.24 +0.98
    2017 04 +0.27 +0.28 +0.26 +0.21 +0.89 +0.22 +0.40
    2017 05 +0.44 +0.39 +0.49 +0.41 +0.10 +0.21 +0.06
    2017 06 +0.21 +0.33 +0.10 +0.39 +0.50 +0.10 +0.34
    2017 07 +0.29 +0.30 +0.27 +0.51 +0.60 -0.27 +1.03
    2017 08 +0.41 +0.40 +0.42 +0.46 -0.55 +0.49 +0.77
    2017 09 +0.54 +0.51 +0.57 +0.54 +0.29 +1.06 +0.60
    2017 10 +0.63 +0.66 +0.59 +0.47 +1.20 +0.83 +0.86
    2017 11 +0.36 +0.33 +0.38 +0.26 +1.35 +0.68 -0.12
    2017 12 +0.41 +0.50 +0.33 +0.26 +0.44 +1.36 +0.36
    2018 01 +0.26 +0.46 +0.06 -0.12 +0.58 +1.36 +0.42
    2018 02 +0.20 +0.24 +0.16 +0.03 +0.91 +1.19 +0.18
    2018 03 +0.24 +0.39 +0.10 +0.06 -0.33 -0.33 +0.59
    2018 04 +0.21 +0.31 +0.10 -0.13 -0.01 +1.02 +0.68

     

    https://www.uah.edu/essc/weather-products/global-temperature-report

     

    • Eu espero viver mais uns 40 anos, pelo menos.

      Só para conferir as predições desta turma climatológica. Veremos quem tem razão.

    • explicando:

      a terceira coluna é que interessa. Equivale à temperatura média da terra na estratosfera. 

      2018 04 +0.21

      +021 significa média global de 14.21 graus centígrados no mês de Abril de 2018.

       

      2017 04 +0.27

       

      significa média global de 14.27 graus centígrados no mês de Abril de 2017.

       

       

  • No momento, acho a burrice

    No momento, acho a burrice natural muito mais perigosa do que a inteligência artificial.

    • Exatamente.
       

      Exatamente, por exemplo, aquela burrice coletiva que ao ser manipulada pelo meios de comunicação de massa é capaz de derrubar governos ou eleger déspostas.

Recent Posts

“Para mim é um alívio essa correição”, diz Gabriela Hardt

Substituta de Sergio Moro, juíza admite erros no caso Tacla Duran, mas garante que não…

8 horas ago

O que está por trás da nova corrida pelo ouro

Incertezas políticas e internacionais estão por trás da disparada de preços do minério, diz professor…

8 horas ago

Como capturar o comum cotidiano ou a própria vida, por Maíra Vasconcelos

A cada dia, ficamos esquecidos no dia anterior sem ter conseguido entender e ver o…

8 horas ago

Lula e ministros visitam RS para garantir recursos às vítimas das chuvas

Exército aumentou o número de militares e opera hospital de campanha; Transportes se comprometeu a…

9 horas ago

Entrevista: Ilan Fonseca, procurador que trabalhou como motorista de Uber, revela a dura realidade dos aplicativos

Escritor e membro do MPT, Ilan Fonseca propõe alternativas ao oligopólio que controla trabalhadores sem…

10 horas ago

Temporais no Rio Grande do Sul rompem barragem e autoridades alertam para população deixar área

Barragem 14 de Julho, no interior do Rio Grande do Sul, rompe com as fortes…

10 horas ago