no Project Syndicate
Como evitar o apocalipse da Inteligência Artificial
por Seth Baum
Tradução de Caiubi Miranda
NOVA YORK – Os avanços recentes no campo da inteligência artificial foram absolutamente impressionantes. A IA está transformando praticamente todos os setores da sociedade, desde o transporte até a medicina e a defesa. Portanto, vale a pena considerar o que acontecerá quando se tornar ainda mais avançada do que já é.
A visão apocalíptica é que as máquinas acionadas por IA serão mais inteligentes que a humanidade, dominar o mundo e matar todos nós. Este cenário aparece frequentemente na ficção científica e é bastante fácil de descartar, considerando que os seres humanos continuam a exercer um controle firme. Mas muitos especialistas em IA levam a sério a perspectiva apocalíptica, e eles estão certos em fazê-lo. O resto da sociedade deveria imitá-los.
Para entender o que está em jogo, considere a distinção entre “AI estreito” e “inteligência artificial geral” (IAG). A AI estreita pode funcionar apenas em um domínio ou em alguns domínios por vez, de modo que, embora possa superar os humanos em certas tarefas, permanece sob controle humano.
O IAG, no entanto, pode raciocinar em uma ampla gama de domínios e, portanto, poderia replicar muitas capacidades intelectuais humanas, mantendo todas as vantagens de computadores, como a recuperação de memória perfeita. Com hardware de computador sofisticado, o IAG poderia superar a cognição humana. Na verdade, é difícil conceber um teto para os avançados que poderiam se tornar o IAG.
Como as coisas estão, a maior parte da IA é estreita. By the way, até mesmo os sistemas mais avançados de hoje só têm quantidades limitadas de generalidade. Por exemplo, enquanto o sistema Google DeepMind AlphaZero foi capaz de se impor em Go, xadrez e shogi – o que o torna mais geral do que a maioria dos outros sistemas de inteligência artificial, que só pode ser aplicado a uma única atividade específica – mesmo assim. demonstrou capacidade apenas dentro dos limites limitados de certos jogos de tabuleiro altamente estruturados.
Muitas pessoas entendem a perspectiva de um IAG avançado. Alguns, como Selmer Bringsjord, do Rensselaer Polytechnic Institute, e Drew McDermott, da Universidade de Yale, argumentam que é impossível para a IA ultrapassar a humanidade. Outros, como Margaret A. Boden, da Universidade de Sussex e Oren Etzioni do Instituto Allen para a Inteligência Artificial, AI argumentam que nível humano pode ser possível no futuro distante, mas é muito cedo para começar a lidar com ele agora.
Esses céticos não são figuras marginais, como os rabugentos que tentam questionar a ciência da mudança climática. Eles são acadêmicos ilustres em ciência da computação e áreas afins, e suas opiniões devem ser levadas em conta.
No entanto, outros estudiosos ilustres entre eles David J. Chalmers University of New York, Allan Dafoe Yale University e Stuart Russell, da Universidade da Califórnia, Berkeley, Nick Bostrom Oxford University e da Yampolskiy Roman Universidade de Louisville – na verdade, eles temem que o IAG possa representar uma ameaça séria ou mesmo existencial à humanidade. Com especialistas de ambos os lados do debate, o resto de nós deve manter a mente aberta.
Além disso, o IAG é o foco de pesquisa e desenvolvimento significativos. Recentemente, realizei uma pesquisa com projetos de P & D do IAG e identifiquei 45 em 30 países em seis continentes. Muitas iniciativas ativas começam com grandes corporações, como Baidu, Facebook, Google, Microsoft e Tencent, e de universidades de elite, como Carnegie Mellon, Harvard e Stanford, assim como a Academia Chinesa de Ciências. Não seria sensato supor que nenhum desses projetos será bem-sucedido.
Outra maneira de pensar sobre a ameaça potencial do IAG é compará-lo com outros riscos catastróficos. Na década de 1990, o Congresso dos Estados Unidos considerou apropriado para a NASA rastrear grandes asteroides que poderiam colidir com a Terra, embora as chances de isso acontecer sejam de um em cada 5.000 por século. Com o IAG, as chances de uma catástrofe no próximo século poderiam ser uma em 100, ou mesmo uma em cada dez, a julgar pelo ritmo da P & D e pela magnitude da preocupação dos especialistas.
A questão, então, é o que fazer sobre isso. Para começar, precisamos garantir que a P & D seja realizada de maneira responsável, segura e ética. Isso exigirá um diálogo mais profundo entre aqueles que trabalham no campo da IA e legisladores, cientistas sociais e cidadãos interessados. Aqueles que trabalham no campo conhecem a tecnologia e eles a projetarão de acordo com os padrões acordados; mas eles não devem decidir sozinhos quais serão esses padrões. Muitas pessoas que estão desenvolvendo aplicativos de IA não estão acostumadas a pensar sobre as implicações sociais de seu trabalho. Para que isso mude, eles devem ser expostos a perspectivas externas.
Os formuladores de políticas também terão que lidar com as dimensões internacionais do IAG. Atualmente, a maior parte da P & D no IAG ocorre nos Estados Unidos, na Europa e na China, mas grande parte do código é aberto, o que significa que, potencialmente, o trabalho pode ser feito de qualquer lugar. Consequentemente, o estabelecimento de normas e regras básicas é, em última análise, uma tarefa para a comunidade internacional como um todo, embora os centros de P & D devam assumir a liderança.
Olhando para o futuro, alguns esforços para abordar os riscos colocados pela IAG pode se juntar iniciativas políticas que foram implementadas ao IA estreita, como o novo bipartidária Caucus IA lançado por John Delaney, congressista democrata de Maryland. Existem muitas oportunidades de sinergia entre aqueles que trabalham nos riscos de curto prazo IA e aqueles que pensam no longo prazo.
No entanto, independentemente de o IA estreito e o IAG serem considerados em conjunto ou separadamente, o que mais importa é que tomemos medidas construtivas agora para minimizar o risco de uma catástrofe no futuro. Não é uma tarefa que podemos esperar concluir no último minuto.
Você pode fazer o Jornal GGN ser cada vez melhor.
Apoie e faça parte desta caminhada para que ele se torne um veículo cada vez mais respeitado e forte.
A I.A. dando uma mãozinha no debate do AGW…
Os modelos computacionais climáticos do IPCC recheados de poder de processamento e técnicas de AI (especialista e não geral), recebem como parâmetros que o CO2 antropogênico influi diretamente na temperatura da terra à medida que o homem emite mais CO2. O sistema, considerando este parâmetro como verdadeiro, indica a formação de uma bolha quente aos arredores do equaor a uma altura de mais ou menos 10km.
Acontece que esta bolha nunca foi encontrada.
A I.A. está, pelo menos, contribuindo para mostrar que os cientistas que questionam tal teoria não sejam assim tão rabugentos e sim, simples cientistas fazendo seu dever.
Lembrando que a concentração de CO2 na terra continua aumentando e no entanto, a temperatura média da terra este ano vem caindo paradoxalmente à teoria.
YEAR MO GLOBE NHEM. SHEM. TROPIC USA48 ARCTIC AUST
2017 01 +0.33 +0.31 +0.34 +0.10 +0.27 +0.95 +1.22
2017 02 +0.38 +0.57 +0.19 +0.08 +2.15 +1.33 +0.21
2017 03 +0.23 +0.36 +0.09 +0.06 +1.21 +1.24 +0.98
2017 04 +0.27 +0.28 +0.26 +0.21 +0.89 +0.22 +0.40
2017 05 +0.44 +0.39 +0.49 +0.41 +0.10 +0.21 +0.06
2017 06 +0.21 +0.33 +0.10 +0.39 +0.50 +0.10 +0.34
2017 07 +0.29 +0.30 +0.27 +0.51 +0.60 -0.27 +1.03
2017 08 +0.41 +0.40 +0.42 +0.46 -0.55 +0.49 +0.77
2017 09 +0.54 +0.51 +0.57 +0.54 +0.29 +1.06 +0.60
2017 10 +0.63 +0.66 +0.59 +0.47 +1.20 +0.83 +0.86
2017 11 +0.36 +0.33 +0.38 +0.26 +1.35 +0.68 -0.12
2017 12 +0.41 +0.50 +0.33 +0.26 +0.44 +1.36 +0.36
2018 01 +0.26 +0.46 +0.06 -0.12 +0.58 +1.36 +0.42
2018 02 +0.20 +0.24 +0.16 +0.03 +0.91 +1.19 +0.18
2018 03 +0.24 +0.39 +0.10 +0.06 -0.33 -0.33 +0.59
2018 04 +0.21 +0.31 +0.10 -0.13 -0.01 +1.02 +0.68
https://www.uah.edu/essc/weather-products/global-temperature-report
Eu espero viver mais uns 40 anos, pelo menos.
Só para conferir as predições desta turma climatológica. Veremos quem tem razão.
explicando:
a terceira coluna é que interessa. Equivale à temperatura média da terra na estratosfera.
2018 04 +0.21
+021 significa média global de 14.21 graus centígrados no mês de Abril de 2018.
2017 04 +0.27
significa média global de 14.27 graus centígrados no mês de Abril de 2017.
No momento, acho a burrice
No momento, acho a burrice natural muito mais perigosa do que a inteligência artificial.
Exatamente.
Exatamente, por exemplo, aquela burrice coletiva que ao ser manipulada pelo meios de comunicação de massa é capaz de derrubar governos ou eleger déspostas.