Luiz Augusto L. da Silva *
Quais são as chances de sobrevivência da civilização atual dentro dos próximos cem anos? Para que a sociedade tecnológica global presente na Terra hoje não venha a sucumbir, será no mínimo necessário que:
– o aquecimento global seja estancado e, se possível, até revertido (ele já pode estar ficando fora de controle);
– a Inteligência Artificial avançada não venha a oferecer riscos para a nossa própria existência, comportando-se sempre de maneira amistosa e cooperativa;
– não aconteça um holocausto nuclear.
As escalas de tempo dessas três ameaças diferem por fatores de dez, sendo da ordem de 102 anos para a catástrofe climática, 10 anos para a Inteligência Artificial (estima-se que em 2030 ela já possa ter superado o nível da inteligência humana), e 1 ano (a rigor, a qualquer momento) para uma guerra nuclear global.
Obviamente muitos outros fatores podem nos ameaçar, mas os três citados acima, todos de natureza endógena e antropogênica, além de constituírem os mais prováveis, podem ser os mais imediatos. As probabilidades de que pelo menos dois deles venham a se tornar uma realidade trágica são maiores que as probabilidades deles não se concretizarem.
Ora, catástrofe climático-ambiental, inteligência artificial, e ameaça nuclear são, em princípio, independentes uma da outra. Assim, ao menos numa primeira aproximação, podemos dizer que a nossa probabilidade de sobrevivência dentro do prazo de 1 ano a até 102 anos a partir do momento atual será grosseiramente igual ao produto das probabilidades individuais de não ocorrência daqueles eventos.
A primeira e a terceira probabilidades parecem, cada uma, pequenas. Seu produto será, portanto, um número menor ainda do que cada uma delas considerada separadamente. Quanto à segunda probabilidade (comportamento da inteligência artificial), é altamente incerta. Multiplique um número certamente muito pequeno por outro número que tanto pode ser muito pequeno, ou, talvez, até grande, e você terá uma verdadeira roleta russa de vida ou de morte.
Se adotarmos o valor 0.1 para a probabilidade de não ocorrência do aquecimento global (convenhamos, uma estimativa por demais otimista…), 0.5 para a Inteligência Artificial (não sabemos, então 0.5 afigura-se um valor prudente), e 0.2 ± 0.1 para a não ocorrência de um conflito nuclear mundial, então encontraremos uma probabilidade de sobrevivência de apenas (1 ± 0.5)%.
Mesmo se levarmos em conta a maior ou menor probabilidade de uma guerra nuclear, combinando-a com as possíveis alternativas para a atitude da Inteligência Artificial avançada (amistosa ou hostil), as chances de sobrevivência não se revelam superiores a 3%, no mais otimista dos casos.
Estes valores não só estão dentro do intervalo estimado em nosso artigo de 2022 no International Journal of Astrobiology (21, 9), < 10%, como também situam-se abaixo do seu limite superior por um fator de ≈ 10. Isto pode ser indicativo de que a probabilidade média de sobrevivência das sociedades inteligentes auto-conscientes tecnológicas seja de tão somente ≈ 1%, quer dizer, até 99% delas estariam fadadas ao fracasso, confirmando a tese de que as civilizações constituem ruas sem saída nos caminhos da evolução darwiniana por seleção natural. Nosso limite superior de 10% para a probabilidade média de sobrevivência de civilizações tecnológicas também é consistente com o valor encontrado por um estudo independente publicado em 2020 por Kohji Tsumura (Sci. Rep., 10, 12795), do Departamento de Ciências Naturais da Universidade de Tokyo . Ele concluiu, por meio de um viés completamente diferente do nosso, que aquela probabilidade seria da ordem de 15%.
Só uma coisa fica, então, certa: nosso futuro não parece promissor. A única certeza é a incerteza. Meu conselho aos mais jovens é que não tenham filhos. É melhor evitar sofrimentos do que arrepender-se tarde demais. Em minha opinião, não podemos nos iludir, pois o amanhã afigura-se muito cinzento, para não dizer negro. Concordo com as palavras de Stephen Emmott (1960 – ), no final do seu formidável livro intitulado Dez Bihões: “acho que estamos ferrados.” Oxalá estejamos errados.
—————
* Astrônomo, presidente do conselho curador da Rede Omega Centauri para o Aprimoramento da Educação Científica.
www.luizaugustoldasilva.com
Compartilhe este texto em suas redes sociais.
www.redeomegacentauri.org
20240804