Saltar para o conteúdo

Centre for the Study of Existential Risk

Origem: Wikipédia, a enciclopédia livre.
Centre for the Study of Existential Risk
Fundação 2012; há 12 anos
Propósito O estudo e a mitigação do risco existencial
Sede Cambridge, England
Fundadores
Sítio oficial cser.ac.uk

O Centre for the Study of Existential Risk (CSER) é um centro de pesquisa da Universidade de Cambridge, destinado a estudar possíveis ameaças de nível de extinção global representadas pela tecnologia atual ou futura.[1] Os cofundadores do centro são Huw Price (Professor de Filosofia em Cambridge), Martin Rees (astrônomo real e ex-presidente da Royal Society) e Jaan Tallinn (cofundador do Skype, investidor inicial da Anthropic).[2]

Foco[editar | editar código-fonte]

Gerenciamento de riscos tecnológicos extremos[editar | editar código-fonte]

Os riscos estão associados aos avanços tecnológicos emergentes e futuros e aos impactos da atividade humana. Gerenciar esses riscos tecnológicos extremos é uma tarefa urgente, mas que apresenta dificuldades específicas e tem sido relativamente negligenciada no meio acadêmico.[3]

Os pesquisadores do CSER desenvolveram uma ferramenta amplamente utilizada para analisar automaticamente a literatura científica em busca de novas pesquisas relevantes para o risco global.[4]

O CSER realizou duas Conferências Internacionais de Cambridge sobre Riscos Catastróficos.[5][6] O centro também prestou consultoria para o estabelecimento de projetos de riscos globais na Universidade Nacional da Austrália,[7] na Universidade da Califórnia, em Los Angeles[8] e na Universidade de Warwick.[9]

O CSER ajudou a estabelecer o primeiro All-Party Parliamentary Group for Future Generations no Parlamento do Reino Unido, levando o risco global e o pensamento de longo prazo aos líderes políticos do Reino Unido.[10]

O CSER realizou mais de trinta workshops reunindo o meio acadêmico, o setor político e o setor industrial em tópicos como segurança cibernética, segurança nuclear, mudanças climáticas e impulsores genéticos.[11]

As palestras públicas do CSER foram vistas mais de 100.000 vezes on-line.[12]

Riscos biológicos globais catastróficos[editar | editar código-fonte]

Em 2017, o CSER reuniu formuladores de políticas e acadêmicos para identificar desafios para a Convenção sobre Armas Biológicas (BWC). Uma questão fundamental identificada foi que a rápida taxa de progresso em ciências e tecnologias relevantes tornou muito difícil para os órgãos de governança, incluindo a BWC, acompanharem o ritmo.[13]

Os pesquisadores do CSER realizaram um exercício de análise sobre 20 questões emergentes em engenharia biológica, com a participação de 30 especialistas europeus e norte-americanos.[14] Eles apresentaram o documento na reunião de 2017 da BWC,[15] e no Conselho Consultivo Científico da Organização para a Proibição de Armas Químicas em 2018.[16]

Riscos extremos e o ambiente global[editar | editar código-fonte]

Martin Rees e Partha Dasgupta, um consultor sênior, co-organizaram uma série de workshops influentes com o Vaticano. O workshop de 2015 influenciou a Encíclica Papal sobre Mudança Climática,[17] que, por sua vez, influenciou o Acordo de Paris sobre mudança climática. As conclusões do workshop de 2017 serão publicadas em breve em um livro sobre Extinção Biológica.[18]

Os pesquisadores do CSER publicaram sobre perda de biodiversidade e governança na revista Nature,[19] o impacto ambiental da agricultura de alto rendimento[20] e as perspectivas da geoengenharia.[21]

Os pesquisadores do CSER publicaram um relatório pedindo que as classificações das escolas de negócios incluíssem a sustentabilidade.[22] Quatro dias depois, o Financial Times anunciou uma “revisão completa de nossa metodologia”.[23]

Riscos da inteligência artificial avançada[editar | editar código-fonte]

Em 2015, o CSER ajudou a organizar uma conferência sobre os rumos futuros da IA em Porto Rico, resultando em uma Carta Aberta sobre Inteligência Artificial assinada por líderes de pesquisa de todo o mundo, pedindo pesquisas para garantir que os sistemas de IA sejam seguros e socialmente benéficos.[24]

Em 2016, o CSER lançou seu primeiro spin-off: o Leverhulme Centre for the Future of Intelligence (CFI). Liderado pelo professor Price, o CFI se concentra nas oportunidades e nos desafios apresentados pela IA.[25]

A partir de 2017, o CSER organizou uma série de conferências acadêmicas reunindo a Teoria da Decisão e a segurança da IA.[26]

Em 2018, com parceiros de empresas de tecnologia e laboratórios de ideias de segurança, o CSER publicou The Malicious Use of Artificial Intelligence: Forecasting, Preventing and Mitigation, sobre as implicações da IA para a segurança física e cibernética.[27] Eles também publicaram An AI Race: Rhetoric and Risks, que ganhou o prêmio inaugural de melhor artigo na conferência AAAI/ACM AI Ethics and Society de 2018.[28]

Cobertura da mídia[editar | editar código-fonte]

O CSER foi coberto por muitos jornais diferentes (especialmente no Reino Unido),[29][30][31] em sua maioria cobrindo diferentes tópicos de interesse. O CSER foi apresentada na capa da Wired,[32] e na edição especial de Frankenstein da Science em 2018.[33]

Consultores[editar | editar código-fonte]

Os consultores do CSER incluem acadêmicos de Cambridge, como:

E conselheiros como:

  • David Cleevely (especialista em telecomunicações e empresário da Silicon Fen)

Veja também[editar | editar código-fonte]

Referências[editar | editar código-fonte]

  1. Biba, Erin (1 de junho de 2015). «Meet the Co-Founder of an Apocalypse Think Tank». Scientific American. 312 (6). 26 páginas. PMID 26336680. doi:10.1038/scientificamerican0615-26 
  2. Lewsey, Fred (25 de novembro de 2012). «Humanity's last invention and our uncertain future». Research News. Consultado em 24 de dezembro de 2012 
  3. «Managing Extreme Technological Risks» 
  4. «Existential Risk Research Network | X-Risk Research Network | www.x-risk.net» 
  5. «Cambridge Conference on Catastrophic Risk 2016» 
  6. «Cambridge Conference on Catastrophic Risk 2018» 
  7. «Latest news | Humans for Survival» 
  8. «The B. John Garrick Institute for the Risk Sciences» 
  9. «PAIS researchers secure prestigious Leverhulme funding» 
  10. «Appg-future-gens» 
  11. «Events» 
  12. «CSER Cambridge». YouTube. Consultado em 6 de abril de 2019 
  13. «Biological Weapons Convention: Where Next?» 
  14. Wintle, Bonnie C.; Boehm, Christian R.; Rhodes, Catherine; Molloy, Jennifer C.; Millett, Piers; Adam, Laura; Breitling, Rainer; Carlson, Rob; Casagrande, Rocco; Dando, Malcolm; Doubleday, Robert; Drexler, Eric; Edwards, Brett; Ellis, Tom; Evans, Nicholas G.; Hammond, Richard; Haseloff, Jim; Kahl, Linda; Kuiken, Todd; Lichman, Benjamin R.; Matthewman, Colette A.; Napier, Johnathan A.; Óhéigeartaigh, Seán S.; Patron, Nicola J.; Perello, Edward; Shapira, Philip; Tait, Joyce; Takano, Eriko; Sutherland, William J. (2017). «A transatlantic perspective on 20 emerging issues in biological engineering». eLife. 6. PMC 5685469Acessível livremente. PMID 29132504. doi:10.7554/eLife.30247Acessível livremente 
  15. «BWC Press Conference» 
  16. «Talk to Organisation for the Prohibition of Chemical Weapons» 
  17. University of California (24 de setembro de 2015). «A 'Parking Lot Pitch' to the Pope». Consultado em 6 de abril de 2019 – via YouTube 
  18. Dasgupta, Partha; Raven, Peter; McIvor, Anna, eds. (2019). Biological Extinction edited by Partha Dasgupta. [S.l.]: Cambridge University Press. ISBN 9781108668675. doi:10.1017/9781108668675 
  19. Amano, Tatsuya; Székely, Tamás; Sandel, Brody; Nagy, Szabolcs; Mundkur, Taej; Langendoen, Tom; Blanco, Daniel; Soykan, Candan U.; Sutherland, William J. (2017). «Successful conservation of global waterbird populations depends on effective governance» (PDF). Nature. 553 (7687): 199–202. PMID 29258291. doi:10.1038/nature25139 
  20. Balmford, Andrew; Amano, Tatsuya; Bartlett, Harriet; Chadwick, Dave; Collins, Adrian; Edwards, David; Field, Rob; Garnsworthy, Philip; Green, Rhys; Smith, Pete; Waters, Helen; Whitmore, Andrew; Broom, Donald M.; Chara, Julian; Finch, Tom; Garnett, Emma; Gathorne-Hardy, Alfred; Hernandez-Medrano, Juan; Herrero, Mario; Hua, Fangyuan; Latawiec, Agnieszka; Misselbrook, Tom; Phalan, Ben; Simmons, Benno I.; Takahashi, Taro; Vause, James; Zu Ermgassen, Erasmus; Eisner, Rowan (2018). «The environmental costs and benefits of high-yield farming». Nature Sustainability. 1 (9): 477–485. PMC 6237269Acessível livremente. PMID 30450426. doi:10.1038/s41893-018-0138-5 
  21. Currie, Adrian (2018). «Geoengineering tensions» (PDF). Futures. 102: 78–88. doi:10.1016/j.futures.2018.02.002. hdl:10871/35739Acessível livremente 
  22. «Business School Rankings for the 21st Century» 
  23. Berwick, Isabel (27 de janeiro de 2019). «As business schools rethink what they do, so must the FT». Financial Times 
  24. McMillan, Robert (16 de janeiro de 2015). «AI Has Arrived, and That Really Worries the World's Brightest Minds». Wired. Consultado em 24 de abril de 2015 
  25. «Leverhulme Centre for the Future of Intelligence» 
  26. «Decision & AI» 
  27. Report, Malicious AI. «The Malicious Use of Artificial Intelligence». Malicious AI Report (em inglês). Consultado em 5 de junho de 2024 
  28. «Best Paper Award – Aies Conference» 
  29. Connor, Steve (14 de setembro de 2013). «Can We Survive?». The New Zealand Herald 
  30. «CSER media coverage». Centre for the Study of Existential Risk. Consultado em 19 de junho de 2014. Cópia arquivada em 30 de junho de 2014 
  31. «Humanity's Last Invention and Our Uncertain Future». University of Cambridge Research News. 25 de novembro de 2012 
  32. Benson, Richard (12 de fevereiro de 2017). «Meet Earth's Guardians, the real-world X-men and women saving us from existential threats». Wired UK 
  33. Kupferschmidt, Kai (12 de janeiro de 2018). «Taming the monsters of tomorrow». Science. 359 (6372): 152–155. Bibcode:2018Sci...359..152K. PMID 29326256. doi:10.1126/science.359.6372.152 
  34. «Team» 

Ligações externas[editar | editar código-fonte]