Instituto britânico alerta para riscos de extinção da raça humana
Uma
 equipe internacional de cientistas, matemáticos e filósofos do 
Instituto do Futuro da Humanidade, da Universidade de Oxford, está 
investigando quais são os maiores perigos contra a humanidade.
E
 eles argumentam em um texto acadêmico recém-divulgado, Riscos 
Existenciais como Prioridade Global, que autores de políticas públicas 
devem atentar para os riscos que podem contribuir para o fim da espécie 
humana.
No ano passado, houve mais textos acadêmicos lançados a respeito de snowboarding do que sobre a extinção humana.
O
 diretor do instituto, o sueco Nick Bostrom, afirma que existe uma 
possibilidade plausível de que este venha a ser o último século da 
humanidade.
Pandemias e desastres naturais podem 
causar uma perda de vida colossal e catastrófica, mas Bostrom acredita 
que a humanidade estaria propensa a sobreviver.
Isso
 porque nossa espécie já sobreviveu a milhares de anos de doenças, fome,
 enchentes, predadores, perseguições, terremotos e mudanças ambientais. 
Por isso, as chances ainda estão a nosso favor.
E
 ao longo do espaço de um século, ele afirma que o risco de extinção em 
decorrência do impacto de asteroides e super erupções vulcânicas 
permanece sendo “extremamente pequeno”.
Até
 mesmo as perdas sem precedentes autoimpostas no século 20, com duas 
guerras mundiais e epidemia de gripe espanhola, deixaram de prevenir a 
ascensão do crescimento da população humana global.
Uma
 guerra nuclear poderia causar destruição sem precedentes, mas um número
 suficiente de indivíduos poderia sobreviver e, assim, permitir, que a continuidade da espécie. 
Mas se existem todos esses atenuantes, com o que deveríamos estar preocupados?
Bostrom acredita que entramos em uma nova era tecnológica capaz de 
ameaçar nosso futuro de uma forma nunca vista antes. Estas são “ameaças 
que não temos qualquer registro de haver sobrevivido”.
O
 diretor do instituto compara as ameaças existentes a uma arma perigosa 
nas mãos de uma criança. Ele diz que o avanço tecnológico superou nossa 
capacidade de controlar as possíveis consequências.
Experimentos
 em áreas como biologia sintética, nanotecnologia e inteligência 
artificial estão avançando para dentro do território do não intencional e
 o imprevisível.
A biologia sintética, onde a biologia se encontra com a engenharia, promete grandes benefícios médicos, mas Bostrom teme efeitos não previstos na manipulação da biologia humana.
A
 nanotecnologia, se realizada a nível atômico ou molecular, poderia 
também ser altamente destrutiva ao ser usada para fins bélicos. Ele tem 
escrito que governos futuros terão um grande desafio ao controlar e 
restringir usos inapropriados.
Há
 também temores em relação à forma como a inteligência artificial ou 
maquinal possa interagir com o mundo externo. Esse tipo de inteligência 
orientada por computadores pode ser uma poderosa ferramenta na 
indústria, na medicina, na agricultura ou para gerenciar a economia, mas
 enfrenta também o risco de ser completamente indiferente a qualquer 
dano incidental.
Sean O’Heigeartaigh, um geneticista do instituto, traça uma analogia com o uso de algoritmos usados no mercado de ações.
Da
 mesma forma que essas manipulações matemáticas, argumenta, podem ter 
efeitos diretos e destrutivos sobre economias reais e pessoas de 
verdade, tais sistemas computacionais podem “manipular o mundo 
verdadeiro”.
Em
 termos de riscos biológicos, ele se preocupa com boas intenções mal 
aplicadas, como experimentos visando promover modificações genéticas e 
desmanter e reconstruir estruturas genéticas.
Um tema recorrente entre o eclético grupo de pesquisadores é sobre a habilidade de criar computadores cada vez mais poderosos.
O
 pesquisador Daniel Dewey, do instituto, fala de uma “explosão de 
inteligência”, em que o poder de aceleração de computadores se torna 
menos previsível e menos controlável.
“A
 inteligência artificial é uma das tecnologias que deposita mais e mais 
poder em pacotes cada vez menores”, afirma o perito americano, um 
especialista em super inteligência maquinal que trabalhou anteriormente 
na Google. 
Efeito em cadeia –
 Juntamente com a biotecnologia e a nanotecnologia, ele afirma que essas
 novas tecnologias poderiam gerar um “efeito em cadeia, de modo que, 
mesmo começando com escassos recursos, você pode criar projetos com 
potencial de afetar todo o mundo”.
O
 Instituto do Futuro da Humanidade em Oxford integra uma tendência 
centrada em pesquisar tais grandes temas. O Instituto foi uma iniciativa
 do Oxford Martin School, que abrange acadêmicos de diferentes áreas, 
com o intuito de estudar os “mais urgentes desafios globais”.
Martin
 Rees, ex-presidente da Sociedade Real de Astronomia britânica é um dos 
defensores do Centro de Estudos de Risco Existencial e afirma que “este é
 o primeiro século na história mundial em que as maiores ameaças provêm 
da humanidade”.
Nick
 Bostrom afirma que o risco existencial enfrentando pela humanidade “não
 está no radar de todo mundo”. Mas ele argumenta que os riscos virão, 
caso estejamos ou não preparados.
“Existe
 um gargalo na história da humanidade. A condição humana irá mudar. Pode
 ser que terminemos em uma catástrofe ou que sejamos transformados ao 
assumir mais controle sobre a nossa biologia. Não é ficção científica, 
doutrina religiosa ou conversa de bar”. (Fonte: G1)
Nenhum comentário:
Postar um comentário