Uma Terra pós-apocalíptica, sem humanos, parece ser coisa de filmes e séries de ficção científica. Mas nesta curta e surpreendente conversa,...
Uma Terra pós-apocalíptica, sem humanos, parece ser coisa de filmes e séries de ficção científica. Mas nesta curta e surpreendente conversa, Lorde Martin Rees nos pede para pensarmos sobre nossos riscos concretos, ameaças naturais e artificiais que poderiam exterminar a humanidade. Como um membro preocupado da raça humana, ele pergunta: "O que de pior pode realmente acontecer?"
Dez anos atrás, escrevi um livro que chamei de "Nosso Último Século?", ponto de interrogação. Minha editora tirou o ponto de interrogação. (Risos)
A editora americana mudou o título para "Nossa Última Hora". Os americanos adoram recompensa e tragédia instantânea. (Risos)
E o tema era o seguinte: A nossa Terra existe há 45 milhões de séculos, mas este é especial - é o primeiro em que uma espécie, a nossa, tem o futuro do planeta nas mãos. Por quase toda a história da Terra, as ameaças vieram da natureza - doenças, terremotos, asteroides e por aí vai - mas de agora em diante, os piores perigos vêm de nós. E agora não é só a ameaça nuclear; no nosso mundo conectado, falhas de rede podem causar um efeito cascata no mundo todo; viagens aéreas podem espalhar pandemias pelo mundo em dias; e as redes sociais podem disseminar rumores e pânico literalmente à velocidade da luz. Nós ligamos demais para perigos menores - acidentes aéreos improváveis, comidas cancerígenas, doses mínimas de radiação e por aí vai - mas nós e nossos mestres políticos negamos as possíveis catástrofes. O pior, graças a Deus, ainda não aconteceu. De fato, provavelmente nem vai. Mas se um acontecimento é potencialmente catastrófico, vale a pena pagar um bom dinheiro para se proteger dele, por mais improvável que seja, do mesmo jeito que contratamos seguro contra fogo para nossas casas.
E conforme a ciência oferece poderes e promessas maiores, o lado ruim também fica mais assustador. A cada dia ficamos mais vulneráveis. Em algumas décadas, milhões de pessoas vão poder usar a biotecnologia emergente para o mal, assim como usam a cibertecnologia hoje. Freeman Dyson, durante uma palestra TED, previu que crianças vão desenhar e criar novos organismos com a mesma facilidade com que a geração dele brincava com kits de química. Bom, isso pode estar beirando a ficção científica, mas mesmo se só uma parte da sua previsão se concretizasse, nossa ecologia e até nossa espécie não ficariam incólumes por muito tempo. Por exemplo, há alguns ecoextremistas que acham que seria melhor para o planeta, para Gaia, se houvesse bem menos humanos. O que vai acontecer quando pessoas assim dominarem técnicas de biologia sintética que serão comuns em 2050? E até lá, outros pesadelos da ficção científica podem virar realidade: robôs burros se revoltando, ou uma rede que desenvolveu uma consciência própria ameaçando todos nós.
Será que podemos nos proteger desses riscos regulamentando-os? Com certeza devemos tentar, mas essas empreitadas são tão competitivas, globalizadas e dirigidas pela pressão comercial que qualquer coisa que possa ser feita vai ser feita em algum lugar, não importa o que as leis dizem. É como as leis antidrogas - tentamos regulamentar, mas não dá. E a aldeia global vai ter seus idiotas da aldeia, e eles terão um alcance global.
Então, como eu disse no meu livro, vamos viver um século muito turbulento. Podem haver obstáculos para a nossa sociedade - de fato, há uma chance de 50% de termos um grande obstáculo. Mas existem eventos concebíveis que poderiam ser muito piores? Eventos que poderiam eliminar toda a vida? Quando um novo acelerador de partículas foi inaugurado, algumas pessoas assustadas perguntaram: "Será que ele pode destruir a Terra, ou pior, rasgar o tecido do espaço?" Por sorte, foi possível tranquilizá-las. Eu mesmo e outros apontamos que a natureza já fez os mesmos experimentos zilhões de vezes através de colisões de raios cósmicos. Mas, é claro, os cientistas devem ser cuidadosos com experimentos que geram condições nunca ocorridas no mundo natural. Os biólogos devem evitar a liberação de patógenos geneticamente modificados potencialmente devastadores.
E por falar nisso, a nossa aversão em especial ao risco de desastres realmente possíveis depende de uma questão filosófica e ética, que é essa: imaginem duas situações. A situação A dizima 90% da humanidade e a situação B dizima 100%. Quão pior é B em relação a A? Alguns diriam que é 10% pior. A contagem de vítimas é 10% maior. Mas eu digo que B é incomparavelmente pior. Como astrônomo, eu não posso acreditar que os humanos são o fim da história. Faltam cinco bilhões de anos até o Sol explodir, e o universo pode continuar para sempre. Então, a evolução pós-humanos, aqui na Terra e além, pode ser tão longa quanto o processo darwiniano que nos gerou, e ainda mais maravilhosa. De fato, a evolução no futuro vai ser muito mais rápida, no que diz respeito à tecnologia, não à seleção natural.
Então nós, certamente, diante dessas apostas tão altas, não devemos aceitar nem uma chance em um bilhão de que a extinção humana elimine esse imenso potencial. Algumas situações propostas podem mesmo ser ficção científica, mas outras podem ser perturbadoramente reais. É uma máxima importante a de que o desconhecido não é o mesmo que o improvável, e é por isso que nós da Universidade de Cambridge estamos criando um centro para estudar como mitigar esses riscos concretos. Parece que só vale a pena para algumas pessoas pensar sobre esses desastres em potencial. Precisamos de toda a ajuda que conseguirmos de outras pessoas, porque nós somos os guardiões de um precioso pálido ponto azul em um vasto universo, um planeta com 50 milhões de séculos ainda para viver. Então, não vamos colocar esse futuro em risco.
Eu gostaria de terminar citando o grande cientista Peter Medawar. Ele disse:
Muito obrigado.
(Aplausos)
Fonte: [Via BBA]
Dez anos atrás, escrevi um livro que chamei de "Nosso Último Século?", ponto de interrogação. Minha editora tirou o ponto de interrogação. (Risos)
A editora americana mudou o título para "Nossa Última Hora". Os americanos adoram recompensa e tragédia instantânea. (Risos)
E o tema era o seguinte: A nossa Terra existe há 45 milhões de séculos, mas este é especial - é o primeiro em que uma espécie, a nossa, tem o futuro do planeta nas mãos. Por quase toda a história da Terra, as ameaças vieram da natureza - doenças, terremotos, asteroides e por aí vai - mas de agora em diante, os piores perigos vêm de nós. E agora não é só a ameaça nuclear; no nosso mundo conectado, falhas de rede podem causar um efeito cascata no mundo todo; viagens aéreas podem espalhar pandemias pelo mundo em dias; e as redes sociais podem disseminar rumores e pânico literalmente à velocidade da luz. Nós ligamos demais para perigos menores - acidentes aéreos improváveis, comidas cancerígenas, doses mínimas de radiação e por aí vai - mas nós e nossos mestres políticos negamos as possíveis catástrofes. O pior, graças a Deus, ainda não aconteceu. De fato, provavelmente nem vai. Mas se um acontecimento é potencialmente catastrófico, vale a pena pagar um bom dinheiro para se proteger dele, por mais improvável que seja, do mesmo jeito que contratamos seguro contra fogo para nossas casas.
E conforme a ciência oferece poderes e promessas maiores, o lado ruim também fica mais assustador. A cada dia ficamos mais vulneráveis. Em algumas décadas, milhões de pessoas vão poder usar a biotecnologia emergente para o mal, assim como usam a cibertecnologia hoje. Freeman Dyson, durante uma palestra TED, previu que crianças vão desenhar e criar novos organismos com a mesma facilidade com que a geração dele brincava com kits de química. Bom, isso pode estar beirando a ficção científica, mas mesmo se só uma parte da sua previsão se concretizasse, nossa ecologia e até nossa espécie não ficariam incólumes por muito tempo. Por exemplo, há alguns ecoextremistas que acham que seria melhor para o planeta, para Gaia, se houvesse bem menos humanos. O que vai acontecer quando pessoas assim dominarem técnicas de biologia sintética que serão comuns em 2050? E até lá, outros pesadelos da ficção científica podem virar realidade: robôs burros se revoltando, ou uma rede que desenvolveu uma consciência própria ameaçando todos nós.
Será que podemos nos proteger desses riscos regulamentando-os? Com certeza devemos tentar, mas essas empreitadas são tão competitivas, globalizadas e dirigidas pela pressão comercial que qualquer coisa que possa ser feita vai ser feita em algum lugar, não importa o que as leis dizem. É como as leis antidrogas - tentamos regulamentar, mas não dá. E a aldeia global vai ter seus idiotas da aldeia, e eles terão um alcance global.
Então, como eu disse no meu livro, vamos viver um século muito turbulento. Podem haver obstáculos para a nossa sociedade - de fato, há uma chance de 50% de termos um grande obstáculo. Mas existem eventos concebíveis que poderiam ser muito piores? Eventos que poderiam eliminar toda a vida? Quando um novo acelerador de partículas foi inaugurado, algumas pessoas assustadas perguntaram: "Será que ele pode destruir a Terra, ou pior, rasgar o tecido do espaço?" Por sorte, foi possível tranquilizá-las. Eu mesmo e outros apontamos que a natureza já fez os mesmos experimentos zilhões de vezes através de colisões de raios cósmicos. Mas, é claro, os cientistas devem ser cuidadosos com experimentos que geram condições nunca ocorridas no mundo natural. Os biólogos devem evitar a liberação de patógenos geneticamente modificados potencialmente devastadores.
E por falar nisso, a nossa aversão em especial ao risco de desastres realmente possíveis depende de uma questão filosófica e ética, que é essa: imaginem duas situações. A situação A dizima 90% da humanidade e a situação B dizima 100%. Quão pior é B em relação a A? Alguns diriam que é 10% pior. A contagem de vítimas é 10% maior. Mas eu digo que B é incomparavelmente pior. Como astrônomo, eu não posso acreditar que os humanos são o fim da história. Faltam cinco bilhões de anos até o Sol explodir, e o universo pode continuar para sempre. Então, a evolução pós-humanos, aqui na Terra e além, pode ser tão longa quanto o processo darwiniano que nos gerou, e ainda mais maravilhosa. De fato, a evolução no futuro vai ser muito mais rápida, no que diz respeito à tecnologia, não à seleção natural.
Então nós, certamente, diante dessas apostas tão altas, não devemos aceitar nem uma chance em um bilhão de que a extinção humana elimine esse imenso potencial. Algumas situações propostas podem mesmo ser ficção científica, mas outras podem ser perturbadoramente reais. É uma máxima importante a de que o desconhecido não é o mesmo que o improvável, e é por isso que nós da Universidade de Cambridge estamos criando um centro para estudar como mitigar esses riscos concretos. Parece que só vale a pena para algumas pessoas pensar sobre esses desastres em potencial. Precisamos de toda a ajuda que conseguirmos de outras pessoas, porque nós somos os guardiões de um precioso pálido ponto azul em um vasto universo, um planeta com 50 milhões de séculos ainda para viver. Então, não vamos colocar esse futuro em risco.
Eu gostaria de terminar citando o grande cientista Peter Medawar. Ele disse:
Os sinos que tocam para a humanidade são como sinos de gado. Eles estão presos em nossos pescoços, e a culpa é nossa se eles não fizerem um som bonito e melodioso.
Muito obrigado.
(Aplausos)
Fonte: [Via BBA]
Comentários