Stephen Hawking tem uma mensagem final para a humanidade: Se os robôs não nos apanharem, a mudança climática irá.
Hawking, que morreu aos 76 anos de uma doença neurológica degenerativa no início deste ano, oferece os seus pensamentos de despedida num livro publicado postumamente chamado Respostas Breves às Grandes Perguntas, que sai na terça-feira. É uma mensagem que vale a pena ouvir de um homem que é provavelmente o cientista mais conhecido desde Einstein, mais conhecido por sua descoberta de como os buracos negros funcionam. O livro de Hawking A Brief History of Time vendeu mais de 10 milhões de cópias e abordou questões tão grandes como “Como o universo começou?” e “O que acontecerá quando terminar?” em linguagem simples o suficiente para o leitor médio.
Num excerto publicado no Times de Londres no fim-de-semana, ele é engraçado e optimista, mesmo quando nos avisa que a inteligência artificial é susceptível de nos enganar, que os ricos estão destinados a desenvolver-se numa espécie sobre-humana, e que o planeta está a precipitar-se para a habitabilidade total.
O livro de Hawking é, em última análise, um veredicto sobre o futuro da humanidade. No início, o veredicto é que estamos condenados. Mas cavem mais fundo e há algo mais aqui também, uma fé de que a sabedoria humana e a inovação irão frustrar a nossa própria destruição, mesmo quando parecemos infelizes em trazê-la.
Os robôs podem estar vindo para nós
O maior aviso do Hawking é sobre o aumento da inteligência artificial: Ou será a melhor coisa que já nos aconteceu, ou será a pior coisa. Se não tivermos cuidado, pode muito bem ser a última coisa.
A inteligência artificial tem uma grande oportunidade para a humanidade, abrangendo tudo desde os algoritmos do Google até aos carros que se conduzem a si próprios, passando pelo software de reconhecimento facial. A IA que temos hoje, no entanto, ainda se encontra nos seus estágios primitivos. Os especialistas preocupam-se com o que vai acontecer quando essa inteligência nos ultrapassar. Ou, como Hawking diz, “Enquanto o impacto a curto prazo da IA depende de quem a controla, o impacto a longo prazo depende de se ela pode ser controlada”
Isso pode soar como o material da ficção científica, mas Hawking diz que rejeitá-la como tal “seria um erro, e potencialmente o nosso pior erro de sempre”
Comparados com os robôs, nós humanos somos bastante desajeitados. Limitados pelo ritmo lento da evolução, leva-nos gerações a iterar. Os robôs, por outro lado, podem melhorar o seu próprio design muito mais rapidamente, e em breve, provavelmente serão capazes de o fazer sem a nossa ajuda. Hawking diz que isto irá criar uma “explosão de inteligência” na qual as máquinas poderão exceder a nossa inteligência “em mais do que a nossa excede a dos caracóis”
Muita gente pensa que a ameaça da IA se centra nela tornando-se malévola em vez de benevolente. Hawking nos desabafa desta preocupação, dizendo que o “risco real com IA não é maldade, mas competência”. Basicamente, a IA será muito boa em atingir seus objetivos; se os humanos se meterem no caminho, podemos estar em apuros.
“Você provavelmente não é um odiador de formigas maléfico que pisa formigas por maldade, mas se você estiver encarregado de um projeto hidroelétrico de energia verde e houver um formigueiro na região para ser inundado, é uma pena para as formigas. Não vamos colocar a humanidade na posição dessas formigas”, escreve Hawking.
Para aqueles que ainda não foram atingidos, ele sugere uma metáfora diferente. “Por que estamos tão preocupados com a IA? Certamente os humanos são sempre capazes de puxar o plugue”, pergunta-lhe uma hipotética pessoa.
Respostas do Hawking: “As pessoas perguntam a um computador: ‘Existe um Deus?’ E o computador disse: ‘Agora existe’, e fundiu a ficha.”
O fim da vida na Terra?
Se não são os robôs, é “quase inevitável que ou um confronto nuclear ou uma catástrofe ambiental aleijem a Terra em algum momento nos próximos 1.000 anos”, escreve Hawking.
O seu aviso vem na sequência do alarmante relatório do Painel Intergovernamental sobre Mudanças Climáticas (IPCC) da semana passada, alertando que temos apenas 12 anos para fazer mudanças maciças o suficiente para manter o aquecimento global em níveis moderados. Sem tais mudanças, secas prolongadas, tempestades tropicais mais frequentes e aumento do nível do mar serão apenas o começo.
A mudança climática desenfreada é a maior ameaça ao nosso planeta, diz ele, e estamos agindo com “indiferença imprudente ao nosso futuro no planeta Terra”.
De fato, podemos não ter futuro, diz ele, nos advertindo para não colocarmos todos os nossos ovos “em uma cesta”. E sim, esse cesto é o planeta Terra. Mesmo que os humanos descubram uma maneira de escapar, “os milhões de espécies que habitam a Terra” estarão condenados, diz ele. “E isso ficará na nossa consciência como uma raça.”
Outro aviso não é menos ameaçador. Estamos a entrar numa nova fase de “evolução auto-desenhada”. Esta fase significa que em breve seremos capazes de descartar as cadeias da evolução tradicional e começar a mudar e melhorar o nosso próprio ADN agora – não em centenas de milhares de anos.
Como com IA, a capacidade de editar o nosso próprio ADN tem o potencial para corrigir os maiores problemas da humanidade. Primeiro, e provavelmente não num futuro distante, seremos capazes de reparar defeitos genéticos, editando genes para coisas como distrofia muscular e esclerose lateral amiotrófica, ou ALS, a doença que lhe foi diagnosticada em 1963. Hawking diz que dentro deste século, seremos capazes de editar inteligência, memória e duração da vida. E é aí que as coisas podem ficar realmente complicadas.
Hawking chama as pessoas que vão fazer isso de “super-humanos”, e elas provavelmente serão as elites ricas do mundo. Os velhos humanos normais não serão capazes de competir, e provavelmente “morrerão, ou se tornarão sem importância”. Ao mesmo tempo, os super-humanos provavelmente irão “colonizar outros planetas e estrelas”
Se tudo isso soa bastante deprimente, é. Mas mesmo enquanto Hawking serve um prognóstico apocalíptico para o planeta e para todos nele, a sua marca de optimismo surge. Ele tem fé que “nossa engenhosa raça terá encontrado uma maneira de escorregar os laços rudes da Terra e, portanto, sobreviverá ao desastre”
Ele até acredita que, ao invés de ser aterrador, essas possibilidades são emocionantes e que isso “aumenta muito as chances de inspirar o novo Einstein”. Onde quer que ela esteja”
Figurar um caminho para fora do planeta Terra, e talvez até do sistema solar, é uma oportunidade de fazer o que as aterrissagens lunares fizeram: “Elevar a humanidade, reunir pessoas e nações, introduzir novas descobertas e novas tecnologias.”
Inscrever o boletim de notícias Future Perfect. Duas vezes por semana, você terá um conjunto de idéias e soluções para enfrentar nossos maiores desafios: melhorar a saúde pública, diminuir o sofrimento humano e animal, aliviar riscos catastróficos e – para simplificar – ficar melhor em fazer o bem.
Jornalismo explicativo da Vox
Todos os dias na Vox, nosso objetivo é responder às suas perguntas mais importantes e fornecer a você, e ao nosso público ao redor do mundo, informações que o capacitam através da compreensão. O trabalho da Vox está alcançando mais pessoas do que nunca, mas a nossa marca distintiva de jornalismo explicativo exige recursos. Sua contribuição financeira não constituirá uma doação, mas permitirá que nossa equipe continue a oferecer artigos, vídeos e podcasts gratuitos a todos os que precisam deles. Por favor, considere fazer uma contribuição para a Vox hoje, de tão pouco quanto $3.