O físico Stephen Hawking disse que a humanidade provavelmente só tem mais cerca de mil anos na Terra, e a única coisa que poderia nos salvar da extinção é a criação de colônias em outras partes do sistema solar.
“Precisamos continuar no espaço para o futuro da humanidade”, disse Hawking em uma palestra na Universidade de Cambridge, esta semana. “Eu não acho que vamos sobreviver outros 1.000 anos sem escapar de nosso frágil planeta”
O físico Stephen Hawking disse que a humanidade provavelmente só tem mais cerca de mil anos na Terra, e a única coisa que poderia nos salvar da extinção é a criação de colônias em outras partes do sistema solar.
“Precisamos continuar no espaço para o futuro da humanidade”, disse Hawking em uma palestra na Universidade de Cambridge, esta semana. “Eu não acho que vamos sobreviver outros 1.000 anos sem escapar de nosso frágil planeta”.
Não aprendemos
Recentemente, Hawking também advertiu que a inteligência artificial (IA) será “a melhor ou a pior coisa que jamais aconteceu à humanidade”.
Dado que os seres humanos são propensos a cometer os mesmos erros repetidamente – mesmo que sejamos obcecados com nossa própria história, parece que não aprendemos com ela -, Hawking suspeita que “poderosas armas autônomas” poderiam ter sérias consequências para a sociedade.
O problema da IA
Sem sequer levar em conta os efeitos potencialmente devastadores da mudança climática, as pandemias globais provocadas pela resistência aos antibióticos e as capacidades nucleares das nações em guerra, só o desenvolvimento da IA já parece um problema grave suficiente para a humanidade.
No final do ano passado, Hawking, ao lado de mais de 20 mil outros pesquisadores e especialistas, incluindo Elon Musk, Steve Wozniak e Noam Chomsky, assinaram um documento pedindo a proibição do desenvolvimento de armas autônomas que possam disparar contra alvos sem intervenção humana. Inclusive, a nova iniciativa de pesquisa de Musk, OpenAI, é dedicada à ética da inteligência artificial.
Os sistemas de IA hoje têm capacidades impressionantes, mas estreitas. Não sabemos o que pode acontecer quando e se eles alcançarem o desempenho humano em praticamente todas as tarefas intelectuais.
Guerras alienígenas
Além dessas ameaças bastante prováveis à extinção da humanidade, Hawking também está cada vez mais convencido de que não estamos sozinhos no universo, e de que isso não é uma coisa necessariamente boa.
Nas próximas décadas, a Terra e a humanidade vão parecer presas fáceis. Estaremos lutando para mitigar os efeitos das mudanças climáticas, ficando sem terra para cultivar, nossas costas estarão desaparecendo e qualquer coisa comestível no mar provavelmente estará sendo cozida pelas temperaturas rapidamente crescentes.
Se os alienígenas forem agressivos, eles verão um inimigo enfraquecido em um planeta habitável pronto para ser tomado. Mesmo que eles não sejam agressivos, nós, humanos, certamente somos, então provavelmente tentaremos lutar contra eles.
Stephen Hawking: entrar em contato com alienígenas pode ser perigoso
Hawking crê que, se os alienígenas nos encontrarem, “eles serão muito mais poderosos e talvez não nos vejam como mais valiosos do que nós vemos as bactérias”.
Esperança
É claro que precisamos de um plano de apoio, e é por isso que o prazo de 1.000 anos de Hawking vem com uma ressalva – poderemos sobreviver aos nossos erros se tivermos outro lugar no sistema solar para nos salvar de nós mesmos.
A nave de Elon Musk poderá levar 100 pessoas para Marte em 80 dias
Isso tudo pode soar muito terrível, mas Hawking diz que ainda temos motivo para nos sentirmos otimistas. Ele descreveu 2016 como um “tempo glorioso para se estar vivo e fazer pesquisas em física teórica” (embora, em outras áreas que não a ciência, as pessoas discordem que haja qualquer coisa de bom em 2016).
Na palestra da Universidade de Cambridge, Hawking afirmou que “por mais difícil que pareça a vida, sempre há algo que você pode fazer e ter sucesso. O que importa é que você não desista”. [Futurism]
Stephen Hawking adverte que a humanidade pode destruir a si mesma em um século
Não aprendemos
Recentemente, Hawking também advertiu que a inteligência artificial (IA) será “a melhor ou a pior coisa que jamais aconteceu à humanidade”.
Dado que os seres humanos são propensos a cometer os mesmos erros repetidamente – mesmo que sejamos obcecados com nossa própria história, parece que não aprendemos com ela -, Hawking suspeita que “poderosas armas autônomas” poderiam ter sérias consequências para a sociedade.
O problema da IA
Sem sequer levar em conta os efeitos potencialmente devastadores da mudança climática, as pandemias globais provocadas pela resistência aos antibióticos e as capacidades nucleares das nações em guerra, só o desenvolvimento da IA já parece um problema grave suficiente para a humanidade.
No final do ano passado, Hawking, ao lado de mais de 20 mil outros pesquisadores e especialistas, incluindo Elon Musk, Steve Wozniak e Noam Chomsky, assinaram um documento pedindo a proibição do desenvolvimento de armas autônomas que possam disparar contra alvos sem intervenção humana. Inclusive, a nova iniciativa de pesquisa de Musk, OpenAI, é dedicada à ética da inteligência artificial.
Os sistemas de IA hoje têm capacidades impressionantes, mas estreitas. Não sabemos o que pode acontecer quando e se eles alcançarem o desempenho humano em praticamente todas as tarefas intelectuais.
Guerras alienígenas
Além dessas ameaças bastante prováveis à extinção da humanidade, Hawking também está cada vez mais convencido de que não estamos sozinhos no universo, e de que isso não é uma coisa necessariamente boa.
Nas próximas décadas, a Terra e a humanidade vão parecer presas fáceis. Estaremos lutando para mitigar os efeitos das mudanças climáticas, ficando sem terra para cultivar, nossas costas estarão desaparecendo e qualquer coisa comestível no mar provavelmente estará sendo cozida pelas temperaturas rapidamente crescentes.
Se os alienígenas forem agressivos, eles verão um inimigo enfraquecido em um planeta habitável pronto para ser tomado. Mesmo que eles não sejam agressivos, nós, humanos, certamente somos, então provavelmente tentaremos lutar contra eles.
Hawking crê que, se os alienígenas nos encontrarem, “eles serão muito mais poderosos e talvez não nos vejam como mais valiosos do que nós vemos as bactérias”.
Esperança
É claro que precisamos de um plano de apoio, e é por isso que o prazo de 1.000 anos de Hawking vem com uma ressalva – poderemos sobreviver aos nossos erros se tivermos outro lugar no sistema solar para nos salvar de nós mesmos.
Isso tudo pode soar muito terrível, mas Hawking diz que ainda temos motivo para nos sentirmos otimistas. Ele descreveu 2016 como um “tempo glorioso para se estar vivo e fazer pesquisas em física teórica” (embora, em outras áreas que não a ciência, as pessoas discordem que haja qualquer coisa de bom em 2016).
Na palestra da Universidade de Cambridge, Hawking afirmou que “por mais difícil que pareça a vida, sempre há algo que você pode fazer e ter sucesso. O que importa é que você não desista”. [Futurism]