Saltar para o conteúdo

Future of Humanity Institute

Origem: Wikipédia, a enciclopédia livre.
Future of Humanity Institute
Future of Humanity Institute
Logo do Future of Humanity Institute
Fundação 2005 (2005)
Extinção 16 de abril de 2024 (2024-04-16)
Propósito Pesquisar questões gerais sobre a humanidade e suas perspectivas
Sede Oxford, Inglaterra
Filiação Faculdade de Filosofia da Universidade de Oxford, Universidade de Oxford
Diretor Nick Bostrom
Sítio oficial futureofhumanityinstitute.org

O Future of Humanity Institute (FHI) era um centro de pesquisa interdisciplinar da Universidade de Oxford que investigava questões gerais sobre a humanidade e suas perspectivas. Foi fundado em 2005 como parte da Faculdade de Filosofia da Universidade de Oxford e da Oxford Martin School.[1] Seu diretor era o filósofo Nick Bostrom, e sua equipe de pesquisa incluía o futurista Anders Sandberg e o fundador do Giving What We Can, Toby Ord.[2]

Compartilhando um escritório e trabalhando em estreita colaboração com o Centre for Effective Altruism, o objetivo declarado do instituto era concentrar a pesquisa onde ela pudesse fazer a maior diferença positiva para a humanidade a longo prazo.[3][4] Ele se envolveu em uma combinação de atividades acadêmicas e de extensão, buscando promover discussões informadas e envolvimento público no governo, empresas, universidades e outras organizações. Os maiores financiadores de pesquisa do centro incluíam a Amlin, Elon Musk, o Conselho Europeu de Investigação, o Future of Life Institute e o Leverhulme Trust.[5]

O instituto foi fechado em 16 de abril de 2024, tendo "enfrentado crescentes dificuldades administrativas dentro da Faculdade de Filosofia da Universidade de Oxford".[6][7]

História[editar | editar código-fonte]

Nick Bostrom fundou o instituto em novembro de 2005 como parte da Oxford Martin School, depois James Martin 21st Century School.[1] Entre 2008 e 2010, o FHI organizou a conferência Global Catastrophic Risks, escreveu 22 artigos em revistas acadêmicas e publicou 34 capítulos em volumes acadêmicos. Os pesquisadores do FHI foram mencionados mais de 5.000 vezes na mídia[8] e prestaram consultoria sobre políticas no Fórum Econômico Mundial, para o setor privado e sem fins lucrativos (como a Macarthur Foundation e a Organização Mundial da Saúde), bem como para órgãos governamentais na Suécia, Cingapura, Bélgica, Reino Unido e Estados Unidos.

Bostrom e o bioeticista Julian Savulescu também publicaram o livro Human Enhancement em março de 2009.[9] Mais recentemente, o FHI tem se concentrado nos perigos da inteligência artificial avançada (IA). Em 2014, seus pesquisadores publicaram vários livros sobre o risco da IA, incluindo Smarter Than Us, de Stuart Armstrong, e Superintelligence: Paths, Dangers, Strategies, de Bostrom.[10][11]

Em 2018, a Open Philanthropy recomendou uma doação de até aproximadamente £13,4 milhões para o FHI ao longo de três anos, com uma grande parte condicionada ao sucesso da contratação.[12]

Risco existencial[editar | editar código-fonte]

Ver artigo principal: Risco catastrófico global

O maior tópico que o FHI dedicou tempo para explorar é o risco catastrófico global, também conhecido como risco existencial. Em um artigo de 2002, Bostrom definiu um "risco existencial" como aquele "em que um resultado adverso aniquilaria a vida inteligente originada na Terra ou reduziria de forma permanente e drástica seu potencial".[13] Isso inclui cenários em que a humanidade não é diretamente prejudicada, mas deixa de colonizar o espaço e de usar os recursos disponíveis do universo observável em projetos humanamente valiosos, conforme discutido no artigo de Bostrom de 2003, "Astronomical Waste: The Opportunity Cost of Delayed Technological Development".[14]

O livro de 2008 de Bostrom e Milan Ćirković, Global Catastrophic Risks, reúne ensaios sobre uma variedade desses riscos, tanto naturais quanto antropogênicos. Os possíveis riscos catastróficos da natureza incluem supervulcanismo, eventos de impacto e eventos astronômicos energéticos, como erupções de raios gama, raios cósmicos, erupções solares e supernovas. Esses perigos são caracterizados como relativamente pequenos e bem compreendidos, embora as pandemias possam ser exceções por serem mais comuns e por se encaixarem nas tendências tecnológicas.[15][4]

O FHI dá mais atenção às pandemias sintéticas por meio de agentes biológicos. Os resultados tecnológicos nos quais o instituto está particularmente interessado incluem o aquecimento global, guerra nuclear e terrorismo nuclear, nanotecnologia molecular e inteligência artificial geral. Ao esperar que os maiores riscos provenham de tecnologias futuras e, em particular, da inteligência artificial avançada, o FHI concorda com outras organizações de redução de riscos existenciais, como o Centre for the Study of Existential Risk e o Machine Intelligence Research Institute.[16][17] Os pesquisadores do FHI também estudaram o impacto do progresso tecnológico sobre os riscos sociais e institucionais, como o totalitarismo, o desemprego causado pela automação e os perigos da informação.[18]

Em 2020, Toby Ord, pesquisador sênior do FHI, publicou seu livro The Precipice: Existential Risk and the Future of Humanity, no qual argumenta que proteger o futuro da humanidade está entre as questões morais mais importantes de nosso tempo.[19][20]

Raciocínio antrópico[editar | editar código-fonte]

Ver artigo principal: Princípio antrópico

O FHI dedica grande parte de sua atenção a ameaças exóticas que foram pouco exploradas por outras organizações e a considerações metodológicas que informam a redução e a previsão de riscos existenciais. O instituto tem enfatizado especialmente o raciocínio antrópico em suas pesquisas, como uma área pouco explorada com implicações epistemológicas gerais.

Os argumentos antrópicos que o FHI estudou incluem o argumento do dia do juízo final, que afirma que a humanidade provavelmente será extinta em breve porque é improvável que se esteja observando um ponto da história humana que seja extremamente precoce. Em vez disso, é provável que os seres humanos atuais estejam próximos do meio da distribuição dos seres humanos que viverão.[15] Bostrom também popularizou o argumento da simulação.

Um tema recorrente na pesquisa do FHI é o paradoxo de Fermi, a surpreendente ausência de civilizações alienígenas observáveis. Robin Hanson argumentou que deve haver um "Grande Filtro" impedindo a colonização espacial para explicar o paradoxo. Esse filtro pode estar no passado, se a inteligência for muito mais rara do que a biologia atual prevê; ou pode estar no futuro, se os riscos existenciais forem ainda maiores do que se reconhece atualmente.

Aperfeiçoamento humano e racionalidade[editar | editar código-fonte]

Intimamente ligado ao trabalho do FHI sobre avaliação de riscos, desperdício astronômico e os perigos de tecnologias futuras está o seu trabalho sobre a promessa e os riscos do aperfeiçoamento humano. As modificações em questão podem ser biológicas, digitais ou sociológicas, e a ênfase é colocada nas mudanças hipotéticas mais radicais, em vez de nas inovações de curto prazo mais prováveis. A pesquisa bioética do FHI se concentra nas possíveis consequências da terapia genética, do prolongamento da vida, dos implantes cerebrais e das interfaces cérebro-computador e da transferência mental.[21]

O foco do FHI tem sido os métodos para avaliar e aprimorar a inteligência e a racionalidade humanas, como forma de moldar a velocidade e a direção do progresso tecnológico e social. O trabalho do FHI sobre a irracionalidade humana, conforme exemplificado na heurística e nos vieses cognitivos, inclui uma colaboração contínua com a Amlin para estudar o risco sistêmico decorrente de vieses na modelagem.[22][23]

Publicações selecionadas[editar | editar código-fonte]

Veja também[editar | editar código-fonte]

Referências[editar | editar código-fonte]

  1. a b «Humanity's Future: Future of Humanity Institute». Oxford Martin School. Consultado em 28 de março de 2014. Cópia arquivada em 17 de março de 2014 
  2. «Staff». Future of Humanity Institute. Consultado em 28 de março de 2014 
  3. «About FHI». Future of Humanity Institute. Consultado em 28 de março de 2014. Cópia arquivada em 1 de dezembro de 2015 
  4. a b Ross Andersen (25 de fevereiro de 2013). «Omens». Aeon Magazine. Consultado em 28 de março de 2014. Cópia arquivada em 9 de fevereiro de 2014 
  5. «Support FHI». Future of Humanity Institute. 2021. Consultado em 23 de julho de 2022. Cópia arquivada em 20 de outubro de 2021 
  6. «Future of Humanity Institute». web.archive.org. 17 de abril de 2024. Consultado em 17 de abril de 2024. Cópia arquivada em 17 de abril de 2024 
  7. Maiberg, Emanuel (17 de abril de 2024). «Institute That Pioneered AI 'Existential Risk' Research Shuts Down». 404 Media. Consultado em 17 de abril de 2024 
  8. «Google News». Google News. Consultado em 30 de março de 2015 
  9. Nick Bostrom (18 de julho de 2007). Achievements Report: 2008-2010 (PDF) (Relatório). Future of Humanity Institute. Consultado em 31 de março de 2014. Cópia arquivada (PDF) em 21 de dezembro de 2012 
  10. Mark Piesing (17 de maio de 2012). «AI uprising: humans will be outsourced, not obliterated». Wired. Consultado em 31 de março de 2014 
  11. Coughlan, Sean (24 de abril de 2013). «How are humans going to become extinct?». BBC News. Consultado em 29 de março de 2014 
  12. Open Philanthropy Project (Julho de 2018). «Future of Humanity Institute — Work on Global Catastrophic Risks» 
  13. Nick Bostrom (Março de 2002). «Existential Risks: Analyzing Human Extinction Scenarios and Related Hazards». Journal of Evolution and Technology. 15 (3): 308–314. Consultado em 31 de março de 2014 
  14. Nick Bostrom (Novembro 2003). «Astronomical Waste: The Opportunity Cost of Delayed Technological Development». Utilitas. 15 (3): 308–314. CiteSeerX 10.1.1.429.2849Acessível livremente. doi:10.1017/s0953820800004076. Consultado em 31 de março de 2014 
  15. a b Ross Andersen (6 de março de 2012). «We're Underestimating the Risk of Human Extinction». The Atlantic. Consultado em 29 de março de 2014 
  16. Kate Whitehead (16 de março de 2014). «Cambridge University study centre focuses on risks that could annihilate mankind». South China Morning Post. Consultado em 29 de março de 2014 
  17. Jenny Hollander (Setembro de 2012). «Oxford Future of Humanity Institute knows what will make us extinct». Bustle. Consultado em 31 de março de 2014 
  18. Nick Bostrom. «Information Hazards: A Typology of Potential Harms from Knowledge» (PDF). Future of Humanity Institute. Consultado em 31 de março de 2014 
  19. Ord, Toby. «The Precipice: Existential Risk and the Future of Humanity». The Precipice Website (em inglês). Consultado em 18 de outubro de 2020 
  20. Chivers, Tom (7 de março de 2020). «How close is humanity to destroying itself?». The Spectator. Consultado em 18 de outubro de 2020 
  21. Anders Sandberg and Nick Bostrom. «Whole Brain Emulation: A Roadmap» (PDF). Future of Humanity Institute. Consultado em 31 de março de 2014 
  22. «Amlin and Oxford University launch major research project into the Systemic Risk of Modelling» (Nota de imprensa). Amlin. 11 de fevereiro de 2014. Consultado em 31 de março de 2014. Cópia arquivada em 13 de abril de 2014 
  23. «Amlin and Oxford University to collaborate on modelling risk study». Continuity, Insurance & Risk Magazine. 11 de fevereiro de 2014. Consultado em 31 de março de 2014 

Ligações externas[editar | editar código-fonte]