Saltar para o conteúdo

Émile P. Torres

Origem: Wikipédia, a enciclopédia livre.

Émile P. Torres (anteriormente conhecide como Phil Torres ) é ume filósofe dos Estados Unidos da América, historiadore intelectual, autore e pesquisadore de pós-doutorado na Case Western Reserve University . Sua pesquisa se concentra em escatologia, risco existencial e extinção humana . Junto com o cientista da computação Timnit Gebru, Torres cunhou o neologismo da sigla " TESCREAL " para criticar o que elus veem como um grupo de filosofias relacionadas: transumanismo, extropianismo, singularitarismo, cosmismo, racionalismo, altruísmo efetivo e longoprazismo.

Início da vida e educação

[editar | editar código-fonte]

Torres cresceu em Maryland . Elu teve sua criação em uma família cristã evangélica fundamentalista, mas depois abandonou a religião e se tornou ateu [1][2]. Elu vai atribuir seu interesse pela escatologia à sua educação fundamentalista, que resultou em uma exposição a discussões substanciais sobre o Arrebatamento [3].

Torres estudou na Universidade de Maryland, College Park, e obteve o título de Bacharel em Ciências com honras em filosofia em 2007. Em 2009, conseguiu obter um mestrado em neurociência pela Universidade Brandeis . Simultaneamente, de 2008 a 2009, elu foi umalune especial na Universidade de Harvard no departamento de filosofia.  Em 2020, Torres iniciou um programa de doutorado em filosofia na Universidade Leibniz de Hannover [4].

Grande parte do trabalho de Torres se concentra no risco existencial, o estudo de potenciais eventos catastróficos que podem resultar na extinção humana. Elu também descreve um foco do seu trabalho como "ética existencial", que elu define como "questões sobre se seria certo ou errado provocar a nossa extinção se acontecesse" [5].  Elu também estuda a história das ideias humanas e pesquisa as histórias de alguns movimentos filosóficos contemporâneos.  

Em 2016, Torres publicou um livro intitulado The End: What Science and Religion Tell Us About the Apocalypse, que discute a escatologia religiosa e secular e descreve ameaças de tecnologias como armas nucleares, engenharia biológica, nanotecnologia e inteligência artificial [3]. Em 2017, elu vai publicar outro livro, intitulado Morality, Foresight, and Human Flourishing: An Introduction to Existential Risks. Assim como seu primeiro livro, elu discute uma série de ameaças existenciais, mas também se aprofunda no que eles chamam de "risco de agência": os papéis de agentes externos no risco existencial.

O jornal The Guardian relatou em 2023 que houve "relatos de Torres assediando o filósofo Peter Boghossian e a teórica cultural britânica Helen Pluckrose ". No mesmo artigo, Torres contestou esses relatos como sendo parte de uma campanha coordenada para minar as críticas de Torres às "visões radicais de extrema direita"[1].  

Em 2023, Torres tornou-se pesquisadore de pós-doutorado no Centro Internacional de Ética e Excelência Inamori da Case Western Reserve University[6]. Também em 2023, Routledge publicou Human Extinction: A History of the Science and Ethics of Annihilation[1], de Torres.  O livro postula que a ascensão do cristianismo, juntamente com o foco do cristianismo na salvação, removeu o tópico da extinção humana do discurso público.  Eles argumentam que as preocupações em torno da extinção humana ressurgiram em meio ao crescente secularismo[1][7]. Embora Torres não queira, na prática, “ver ou promover” a extinção humana, elu afirma que não seria inerentemente mau se ocorresse sem violência, como acontece com o declínio das taxas de natalidade.

Torres publicou artigos em meios de comunicação populares, incluindo The Washington Post e Current Affairs[8][9], e é um escritore colaborador do Salon e Truthdig [10][11].  

Torres dirige um grupo de leitura dedicado à “Ética da Extinção Humana”. [12]

Transumanismo, longoprazismo e altruísmo eficaz

[editar | editar código-fonte]

Durante a primeira década de sua carreira, Torres se identificou como um transumanista, um longoprazista e um altruísta eficaz [1][13]. Antes de 2017, Torres contribuiu escrevendo para o Future of Life Institute, uma organização sem fins lucrativos focada em tecnologia e risco existencial. Depois de se voltar contra a organização e se opor ao tecno-otimismo com ideias como a necessidade de uma moratória no desenvolvimento da inteligência artificial, Torres diz que foi expulso e seus textos removidos do site[14].

Torres mais tarde abandonou as comunidades longoprazistas, transumanistas e altruístas eficazes e tornou-se um crítique vocal[4][15]. Torres afirma que o longoprazismo e as ideologias relacionadas derivam da eugenia e podem ser usadas para justificar o pensamento consequencialista perigoso[15]. Juntamente com Timnit Gebru, Torres cunhou a sigla " TESCREAL " para se referir ao que eles veem como um grupo de filosofias relacionadas: transumanismo, extropianismo, singularitarismo, cosmismo, racionalismo, altruísmo eficaz e longoprazismo[16]. Eles divulgaram o termo pela primeira vez em um artigo sobre inteligência artificial geral (IAG). Torres argumentou que uma corrida para o desenvolvimento da IAG produziria, em vez disso, sistemas que prejudicariam grupos marginalizados e concentrariam poder[17].

Torres continuou a escrever extensivamente sobre as filosofias e sobre como elas se cruzam em relação à inteligência artificial[18]. Elu e Gebru criticaram os adeptos dessas filosofias por tratarem a IAG como uma solução tecnológica para questões como as mudanças climáticas e o acesso à educação, ignorando outros fatores políticos, sociais ou económicos[19]. Elus também expressaram preocupação com a sua crença de que o longo prazo é proeminente na indústria tecnológica[20]. Torres também vai ser descrito como ume crítique do tecno-otimismo[21]. Ozy Brennan, escrevendo na revista Asterisk, criticou a abordagem de Torres de agrupar diferentes filosofias como se fossem um movimento "monolítico". Eles argumentam que Torres interpretou mal essas diferentes filosofias e tirou os experimentos de pensamento filosófico do contexto[22].

Torres também escreveu sobre inteligência artificial e defendeu maior foco nos danos da IA, incluindo roubo de propriedade intelectual, discriminação algorítmica e concentração de riqueza em empresas de tecnologia[15].  Elu também argumenta que é digno de nota que as mudanças climáticas não são uma das principais preocupações dos adeptos do longoprazismo[23][24]. Embora o altruísmo eficaz e uma filosofia mais recente conhecida como aceleracionismo eficaz tenham sido descritos como lados opostos do argumento sobre como abordar o desenvolvimento da inteligência artificial, Torres opinou que os dois grupos são de fato muito semelhantes e caracterizou o conflito como uma "disputa familiar". “O que falta são todas as questões que os especialistas em ética da IA estão a colocar sobre o preconceito algorítmico, a discriminação, o impacto ambiental dos [sistemas de IA], e assim por diante”, disse Torres ao The Independent [25].

Andrew Anthony, escrevendo no The Observer , descreveu Torres como o “crítique mais veemente” do longoprazismo. [1]

[editar | editar código-fonte] Torres é não-binário e usa pronomes elu/delu[1].

Publicações selecionadas

[editar | editar código-fonte]
  • The End: What Science and Religion Tell Us about the Apocalypse. Pitchstone Publishing. 16 de fevereiro de 2016.
  • Morality, Foresight, and Human Flourishing: An Introduction to Existential Risks. Pitchstone Publishing. Outubro de 2017.
  • Human Extinction: A History of the Science and Ethics of Annihilation. Routledge. 14 de julho de 2023.

Artigos acadêmicos

[editar | editar código-fonte]

GEBRU, Timnit; TORRES, Émile P. (1 de Abril 2024). "The TESCREAL bundle: Eugenics and the promise of utopia through artificial general intelligence". First Monday. 29 (4).

Referências

  1. a b c d e f g Anthony, Andrew (22 de julho de 2023). «'What if everybody decided not to have children?' The philosopher questioning humanity's future». The Observer (em inglês). ISSN 0029-7712. Consultado em 8 de outubro de 2024 
  2. Hamburger, Jacob (14 de janeiro de 2019). «What Was New Atheism?». The Point Magazine (em inglês). Consultado em 8 de outubro de 2024 
  3. a b Howe, Brian (9 de março de 2016). «Apocalypse How? Carrboro's Phil Torres on Nanobots, Biotech, A.I., and Other Onrushing Threats to Our Species». INDY Week (em inglês). Consultado em 8 de outubro de 2024 
  4. a b «Subscribe to read». www.ft.com. Consultado em 8 de outubro de 2024 
  5. «Is There a Best Way to Think About the Future of Earth?». Inverse (em inglês). 21 de abril de 2023. Consultado em 8 de outubro de 2024 
  6. Smith, Brianna (23 de janeiro de 2024). «Inamori International Center for Ethics and Excellence's Émile Torres weighs in on superhuman AI panic». The Daily (em inglês). Consultado em 8 de outubro de 2024 
  7. Wright, Mic (31 de março de 2024). «Apocalypse, how?». Perspective Media International (em inglês). Consultado em 8 de outubro de 2024 
  8. «Opinion | How AI could accidentally extinguish humankind». Washington Post (em inglês). 31 de agosto de 2022. Consultado em 8 de outubro de 2024 
  9. «Current Affairs (magazine)». Wikipedia (em inglês). 25 de julho de 2024. Consultado em 8 de outubro de 2024 
  10. «Émile P. Torres's Articles at Salon.com». www.salon.com. Consultado em 8 de outubro de 2024 
  11. «Émile P. Torres, Author at». Truthdig (em inglês). Consultado em 8 de outubro de 2024 
  12. «Extinction Reading Group». My Site 6 (em inglês). Consultado em 8 de outubro de 2024 
  13. «The good delusion: has effective altruism broken bad?». The Economist. ISSN 0013-0613. Consultado em 8 de outubro de 2024 
  14. «Stop the killer robots! Musk-backed lobbyists fight to save Europe from bad AI». POLITICO (em inglês). 24 de novembro de 2022. Consultado em 8 de outubro de 2024 
  15. a b c «The fight over a 'dangerous' ideology shaping AI debate». France 24 (em inglês). 27 de agosto de 2023. Consultado em 8 de outubro de 2024 
  16. Affairs, Current (7 de maio de 2023). «Why Effective Altruism and "Longtermism" Are Toxic Ideologies». Current Affairs (em inglês). ISSN 2471-2647. Consultado em 8 de outubro de 2024 
  17. «Subscribe to read». www.ft.com. Consultado em 8 de outubro de 2024 
  18. «Apocalypse Now? Only In Our Fevered Dreams». Bloomberg.com (em inglês). 30 de dezembro de 2023. Consultado em 8 de outubro de 2024 
  19. «Behind AI, the return of technological utopias» (em inglês). 20 de junho de 2023. Consultado em 8 de outubro de 2024 
  20. Esther (30 de abril de 2023). «Longtermism: „An odd and peculiar ideology"». netzpolitik.org (em alemão). Consultado em 8 de outubro de 2024 
  21. Jr, Edward Ongweso (13 de julho de 2023). «Silicon Valley's Quest to Build God and Control Humanity» (em inglês). ISSN 0027-8378. Consultado em 8 de outubro de 2024 
  22. researcher, Ozy Brennan is an animal welfare; Things, science fiction author They blog at Thing of. «The "TESCREAL" Bungle—Asterisk». asteriskmag.com. Consultado em 8 de outubro de 2024 
  23. «MIT Technology Review». Wikipedia (em inglês). 6 de setembro de 2024. Consultado em 8 de outubro de 2024 
  24. «New Formations». Wikipedia (em inglês). 27 de abril de 2023. Consultado em 8 de outubro de 2024 
  25. «Inside the political split between AI designers that could decide our future». The Independent (em inglês). 7 de fevereiro de 2024. Consultado em 8 de outubro de 2024