Stephen Hawking tem uma mensagem final para a humanidade: Se os robôs não nos apanham, a mudança climática vai.
Hawking, que morreu aos 76 anos de uma doença neurológica degenerativa no início deste ano, oferece os seus pensamentos de despedida num livro publicado postumamente chamado Respostas Breves às Grandes Perguntas, que sai na terça-feira. É uma mensagem que vale a pena ouvir de um homem que é provavelmente o cientista mais conhecido desde Einstein, mais conhecido por sua descoberta de como os buracos negros funcionam. O livro de Hawking A Brief History of Time vendeu mais de 10 milhões de cópias e abordou questões tão grandes como “Como o universo começou?” e “O que acontecerá quando terminar?” em linguagem simples o suficiente para o leitor médio.
Num excerto publicado no Times de Londres durante o fim-de-semana, ele é engraçado e optimista, mesmo quando nos avisa que a inteligência artificial é susceptível de nos enganar, que os ricos estão destinados a desenvolver-se numa espécie sobre-humana, e que o planeta está a sofrer uma habitabilidade total.
O livro de Hawking é, em última análise, um veredicto sobre o futuro da humanidade. No início, o veredicto é que estamos condenados. Mas cavem mais fundo e há algo mais aqui também, uma fé de que a sabedoria humana e a inovação vão impedir a nossa própria destruição, mesmo quando parecemos infelizes em trazê-la à tona.
Os robôs podem estar vindo para nós
O maior aviso do Hawking é sobre o aumento da inteligência artificial: Ou será a melhor coisa que já nos aconteceu, ou será a pior coisa. Se não tivermos cuidado, pode ser a última coisa.
A Inteligência artificial tem uma grande oportunidade para a humanidade, abrangendo desde os algoritmos do Google, passando pelos auto-condução de carros, até ao software de reconhecimento facial. A IA que temos hoje, no entanto, ainda está nos seus estágios primitivos. Os especialistas preocupam-se com o que vai acontecer quando essa inteligência nos ultrapassar. Ou, como Hawking diz, “Enquanto o impacto a curto prazo da IA depende de quem a controla, o impacto a longo prazo depende de se ela pode ser controlada”
Isso pode parecer coisa de ficção científica, mas Hawking diz que rejeitá-la como tal “seria um erro, e potencialmente nosso pior erro de sempre”
Comparados com os robôs, nós humanos somos bastante desajeitados. Limitados pelo ritmo lento da evolução, leva-nos gerações a iterar. Os robôs, por outro lado, podem melhorar o seu próprio design muito mais rapidamente, e em breve, provavelmente serão capazes de o fazer sem a nossa ajuda. Hawking diz que isto irá criar uma “explosão de inteligência” na qual as máquinas poderão exceder a nossa inteligência “em mais do que a nossa excede a dos caracóis”
Muita gente pensa que a ameaça da IA se centra nela tornando-se malévola em vez de benevolente. Hawking nos desanima dessa preocupação, dizendo que o “risco real com IA não é maldade, mas competência”. Basicamente, a IA será muito boa em atingir seus objetivos; se os humanos se meterem no caminho, podemos estar em apuros.
“Você provavelmente não é um odiador de formigas malévolo que pisa formigas por maldade, mas se você está encarregado de um projeto hidroelétrico de energia verde e há um formigueiro na região para ser inundado, muito ruim para as formigas. Não vamos colocar a humanidade na posição dessas formigas”, escreve Hawking.
Para aqueles que ainda não foram atingidos, ele sugere uma metáfora diferente. “Por que estamos tão preocupados com a IA? Certamente os humanos são sempre capazes de puxar a tomada”, pergunta-lhe uma hipotética pessoa.
Hawking responde: “As pessoas perguntam a um computador: ‘Existe um Deus?’ E o computador disse, ‘Agora existe’, e fundiu a ficha”
O fim da vida na Terra?
Se não são os robôs, é “quase inevitável que ou um confronto nuclear ou uma catástrofe ambiental aleijem a Terra em algum momento nos próximos 1.000 anos”, escreve Hawking.
O seu aviso vem na sequência do alarmante relatório do Painel Intergovernamental sobre Mudanças Climáticas (IPCC) da semana passada, alertando que temos apenas 12 anos para fazer mudanças maciças o suficiente para manter o aquecimento global em níveis moderados. Sem tais mudanças, secas prolongadas, tempestades tropicais mais frequentes e aumento do nível do mar serão apenas o começo.
A mudança climática desenfreada é a maior ameaça ao nosso planeta, diz ele, e estamos agindo com “indiferença imprudente ao nosso futuro no planeta Terra”.
De fato, podemos não ter futuro, diz ele, nos advertindo para não colocarmos todos os nossos ovos “em uma cesta”. E sim, esse cesto é o planeta Terra. Mesmo que os humanos descubram uma maneira de escapar, “os milhões de espécies que habitam a Terra” estarão condenados, diz ele. “E isso ficará na nossa consciência como uma raça.”
Outro aviso não é menos ameaçador. Estamos a entrar numa nova fase de “evolução auto-desenhada”. Esta fase significa que em breve seremos capazes de descartar as cadeias da evolução tradicional e começar a mudar e melhorar o nosso ADN agora – não em centenas de milhares de anos.
Como com IA, a capacidade de editar o nosso próprio ADN tem o potencial para corrigir os maiores problemas da humanidade. Primeiro, e provavelmente não num futuro distante, seremos capazes de reparar defeitos genéticos, editando genes para coisas como distrofia muscular e esclerose lateral amiotrófica, ou ELA, a doença que lhe foi diagnosticada em 1963. Hawking diz que dentro deste século, seremos capazes de editar inteligência, memória e duração da vida. E é aí que as coisas podem ficar realmente complicadas.
Hawking chama as pessoas que vão fazer isso de “super-humanos”, e elas provavelmente serão as elites ricas do mundo. Os velhos humanos normais não serão capazes de competir, e provavelmente “morrerão, ou tornar-se-ão sem importância”. Ao mesmo tempo, os super-humanos provavelmente irão “colonizar outros planetas e estrelas”.
Se tudo isso soa bastante deprimente, é. Mas mesmo enquanto Hawking serve um prognóstico apocalíptico para o planeta e para todos nele, a sua marca de optimismo surge. Ele tem fé que “nossa engenhosa raça terá encontrado uma maneira de escorregar os laços rudes da Terra e, portanto, sobreviverá ao desastre”
Ele até acredita que, ao invés de ser aterrador, essas possibilidades são emocionantes e que isso “aumenta muito as chances de inspirar o novo Einstein”. Onde quer que ela esteja”
Figurar um caminho para fora do planeta Terra, e talvez até do sistema solar, é uma oportunidade de fazer o que as aterrissagens da lua fizeram: “Elevar a humanidade, reunir pessoas e nações, introduzir novas descobertas e novas tecnologias.”
Inscrever para o boletim Future Perfect. Duas vezes por semana, você terá um conjunto de idéias e soluções para enfrentar nossos maiores desafios: melhorar a saúde pública, diminuir o sofrimento humano e animal, aliviar riscos catastróficos, e – falando de forma simples – ficar melhor fazendo o bem.
Sustentar o jornalismo explicativo da Vox
Todos os dias na Vox, nosso objetivo é responder às suas perguntas mais importantes e fornecer a você, e ao nosso público ao redor do mundo, informações que o capacitam através da compreensão. O trabalho da Vox está alcançando mais pessoas do que nunca, mas a nossa marca distintiva de jornalismo explicativo exige recursos. Sua contribuição financeira não constituirá uma doação, mas permitirá que nossa equipe continue a oferecer artigos, vídeos e podcasts gratuitos a todos os que precisam deles. Por favor, considere fazer uma contribuição para a Vox hoje, de tão pouco quanto $3.