Saltar para o conteúdo

Machine Intelligence Research Institute

Origem: Wikipédia, a enciclopédia livre.
Machine Intelligence Research Institute
Tipo Instituto de pesquisa sem fins lucrativos
Fundação 2000; há 24 anos
Propósito Pesquisa sobre inteligência artificial amigável e o problema de controle de IA
Sede Berkeley, Califórnia, Estados Unidos
Organização Eliezer Yudkowsky
Sítio oficial intelligence.org

O Machine Intelligence Research Institute (MIRI), antigo Singularity Institute for Artificial Intelligence (SIAI), é um instituto de pesquisa sem fins lucrativos que, desde 2005, se concentra na identificação e no gerenciamento dos possíveis riscos existenciais da inteligência artificial geral. O trabalho do MIRI tem se concentrado em uma abordagem de inteligência artificial amigável para o design do sistema e na previsão da taxa de desenvolvimento da tecnologia.

História[editar | editar código-fonte]

Yudkowsky na Universidade de Stanford em 2006.

Em 2000, Eliezer Yudkowsky fundou o Singularity Institute for Artificial Intelligence com o financiamento de Brian e Sabine Atkins, com o objetivo de acelerar o desenvolvimento da inteligência artificial (IA).[1][2][3] No entanto, Yudkowsky começou a se preocupar com o fato de que os sistemas de IA desenvolvidos no futuro poderiam se tornar superinteligentes e representar riscos para a humanidade,[1] e em 2005 o instituto mudou-se para o Vale do Silício e começou a se concentrar em maneiras de identificar e gerenciar esses riscos, que na época eram amplamente ignorados pelos cientistas da área.[2]

A partir de 2006, o instituto organizou o Singularity Summit para discutir o futuro da IA, inclusive seus riscos, inicialmente em cooperação com a Universidade de Stanford e com financiamento de Peter Thiel. O San Francisco Chronicle descreveu a primeira conferência como uma “festa de inauguração da Bay Area para a filosofia inspirada na tecnologia chamada transumanismo”.[4][5] Em 2011, seus escritórios eram quatro apartamentos no centro de Berkeley.[6] Em dezembro de 2012, o instituto vendeu seu nome, domínio da Web e o Singularity Summit para a Singularity University,[7] e no mês seguinte adotou o nome “Machine Intelligence Research Institute”.[8]

Em 2014 e 2015, o interesse público e científico nos riscos da IA cresceu, aumentando as doações para financiar pesquisas no MIRI e em organizações semelhantes.[3][9]

Em 2019, a Open Philanthropy recomendou uma doação de apoio geral de aproximadamente US$ 2,1 milhões ao longo de dois anos para a MIRI.[10] Em abril de 2020, a Open Philanthropy complementou isso com uma doação de US$ 7,7 milhões ao longo de dois anos.[11][12]

Em 2021, Vitalik Buterin doou vários milhões de dólares em Ethereum para o MIRI.[13]

Pesquisa e abordagem[editar | editar código-fonte]

Nate Soares apresentando uma visão geral do problema de alinhamento de IA no Google em 2016.

A abordagem do MIRI para identificar e gerenciar os riscos da IA, liderada por Yudkowsky, trata principalmente de como projetar uma IA amigável, abrangendo tanto o projeto inicial dos sistemas de IA quanto a criação de mecanismos para garantir que os sistemas de IA em evolução permaneçam amigáveis.[3][14][15]

Os pesquisadores do MIRI defendem o trabalho de segurança antecipado como medida de precaução.[16] No entanto, os pesquisadores do MIRI expressaram ceticismo em relação aos pontos de vista dos defensores da singularidade, como Ray Kurzweil, de que a superinteligência está “logo ali na esquina”.[14] O MIRI financiou o trabalho de previsão por meio de uma iniciativa chamada AI Impacts, que estuda instâncias históricas de mudanças tecnológicas descontínuas e desenvolveu novas medidas do poder computacional relativo de humanos e hardware de computador.[17]

O MIRI se alinha com os princípios e objetivos do movimento de altruísmo eficaz.[18]

Obras da equipe do MIRI[editar | editar código-fonte]

  • Soares, Nate; Levinstein, Benjamin A. (2017). «Cheating Death in Damascus» (PDF). Formal Epistemology Workshop (FEW). Consultado em 28 de julho de 2018 
  • Soares, Nate; Fallenstein, Benja; Yudkowsky, Eliezer; Armstrong, Stuart (2015). «Corrigibility». AAAI Workshops: Workshops at the Twenty-Ninth AAAI Conference on Artificial Intelligence, Austin, TX, January 25–26, 2015. AAAI Publications 
  • Yudkowsky, Eliezer (2011). «Complex Value Systems in Friendly AI» (PDF). Artificial General Intelligence: 4th International Conference, AGI 2011, Mountain View, CA, USA, August 3–6, 2011. Berlin: Springer 

Veja também[editar | editar código-fonte]

Referências[editar | editar código-fonte]

  1. a b «MIRI: Artificial Intelligence: The Danger of Good Intentions - Future of Life Institute». Future of Life Institute. 11 de outubro de 2015. Consultado em 28 de agosto de 2018. Cópia arquivada em 28 de agosto de 2018 
  2. a b Khatchadourian, Raffi. «The Doomsday Invention». The New Yorker. Consultado em 28 de agosto de 2018. Cópia arquivada em 29 de abril de 2019 
  3. a b c Waters, Richard (31 de outubro de 2014). «Artificial intelligence: machine v man». Financial Times. Consultado em 27 de agosto de 2018. Cópia arquivada em 27 de agosto de 2018 
  4. Abate, Tom (2006). «Smarter than thou?». San Francisco Chronicle. Consultado em 12 de outubro de 2015. Cópia arquivada em 11 de fevereiro de 2011 
  5. Abate, Tom (2007). «Public meeting will re-examine future of artificial intelligence». San Francisco Chronicle. Consultado em 12 de outubro de 2015. Cópia arquivada em 14 de janeiro de 2016 
  6. Kaste, Martin (11 de janeiro de 2011). «The Singularity: Humanity's Last Invention?». All Things Considered, NPR (em inglês). Consultado em 28 de agosto de 2018. Cópia arquivada em 28 de agosto de 2018 
  7. «Press release: Singularity University Acquires the Singularity Summitt». Singularity University. 9 de dezembro de 2012. Consultado em 28 de agosto de 2018. Cópia arquivada em 27 de abril de 2019 
  8. «Press release: We are now the "Machine Intelligence Research Institute" (MIRI) - Machine Intelligence Research Institute». Machine Intelligence Research Institute. 30 de janeiro de 2013. Consultado em 28 de agosto de 2018. Cópia arquivada em 23 de setembro de 2018 
  9. Tegmark, Max (2017). Life 3.0: Being Human in the Age of Artificial Intelligence. United States: Anchor Books. ISBN 978-1-101-94659-6 
  10. «Machine Intelligence Research Institute — General Support (2019)». Open Philanthropy Project (em inglês). 29 de março de 2019. Consultado em 8 de outubro de 2019. Cópia arquivada em 8 de outubro de 2019 
  11. «Machine Intelligence Research Institute — General Support (2020)». Open Philanthropy Project. 10 de março de 2020. Cópia arquivada em 13 de abril de 2020 
  12. Bensinger, Rob (27 de abril de 2020). «MIRI's largest grant to date!». MIRI. Consultado em 27 de abril de 2020. Cópia arquivada em 27 de abril de 2020 
  13. Maheshwari, Suyash (13 de maio de 2021). «Ethereum creator Vitalik Buterin donates $1.5 billion in cryptocurrency to India COVID Relief Fund & other charities». MSN. Consultado em 23 de janeiro de 2023. Cópia arquivada em 24 de agosto de 2021 
  14. a b LaFrance, Adrienne (2015). «Building Robots With Better Morals Than Humans». The Atlantic. Consultado em 12 de outubro de 2015. Cópia arquivada em 19 de agosto de 2015 
  15. Russell, Stuart; Norvig, Peter (2009). Artificial Intelligence: A Modern Approach. [S.l.]: Prentice Hall. ISBN 978-0-13-604259-4 
  16. Sathian, Sanjena (4 de janeiro de 2016). «The Most Important Philosophers of Our Time Reside in Silicon Valley». OZY (em inglês). Consultado em 28 de julho de 2018. Cópia arquivada em 29 de julho de 2018 
  17. Hsu, Jeremy (2015). «Making Sure AI's Rapid Rise Is No Surprise». Discover. Consultado em 12 de outubro de 2015. Cópia arquivada em 12 de outubro de 2015 
  18. «AI and Effective Altruism». Machine Intelligence Research Institute (em inglês). 28 de agosto de 2015. Consultado em 8 de outubro de 2019. Cópia arquivada em 8 de outubro de 2019 

Leitura adicional[editar | editar código-fonte]

Ligações externas[editar | editar código-fonte]