O Machine Intelligence Research Institute (MIRI), antigo Singularity Institute for Artificial Intelligence (SIAI), é um instituto de pesquisa sem fins lucrativos que, desde 2005, se concentra na identificação e no gerenciamento dos possíveis riscos existenciais da inteligência artificial geral. O trabalho do MIRI tem se concentrado em uma abordagem de inteligência artificial amigável para o design do sistema e na previsão da taxa de desenvolvimento da tecnologia.
História
Em 2000, Eliezer Yudkowsky fundou o Singularity Institute for Artificial Intelligence com o financiamento de Brian e Sabine Atkins, com o objetivo de acelerar o desenvolvimento da inteligência artificial (IA).[1][2][3] No entanto, Yudkowsky começou a se preocupar com o fato de que os sistemas de IA desenvolvidos no futuro poderiam se tornar superinteligentes e representar riscos para a humanidade,[1] e em 2005 o instituto mudou-se para o Vale do Silício e começou a se concentrar em maneiras de identificar e gerenciar esses riscos, que na época eram amplamente ignorados pelos cientistas da área.[2]
A partir de 2006, o instituto organizou o Singularity Summit para discutir o futuro da IA, inclusive seus riscos, inicialmente em cooperação com a Universidade de Stanford e com financiamento de Peter Thiel. O San Francisco Chronicle descreveu a primeira conferência como uma “festa de inauguração da Bay Area para a filosofia inspirada na tecnologia chamada transumanismo”.[4][5] Em 2011, seus escritórios eram quatro apartamentos no centro de Berkeley.[6] Em dezembro de 2012, o instituto vendeu seu nome, domínio da Web e o Singularity Summit para a Singularity University,[7] e no mês seguinte adotou o nome “Machine Intelligence Research Institute”.[8]
Em 2014 e 2015, o interesse público e científico nos riscos da IA cresceu, aumentando as doações para financiar pesquisas no MIRI e em organizações semelhantes.[3][9]
Em 2019, a Open Philanthropy recomendou uma doação de apoio geral de aproximadamente US$ 2,1 milhões ao longo de dois anos para a MIRI.[10] Em abril de 2020, a Open Philanthropy complementou isso com uma doação de US$ 7,7 milhões ao longo de dois anos.[11][12]
A abordagem do MIRI para identificar e gerenciar os riscos da IA, liderada por Yudkowsky, trata principalmente de como projetar uma IA amigável, abrangendo tanto o projeto inicial dos sistemas de IA quanto a criação de mecanismos para garantir que os sistemas de IA em evolução permaneçam amigáveis.[3][14][15]
Os pesquisadores do MIRI defendem o trabalho de segurança antecipado como medida de precaução.[16] No entanto, os pesquisadores do MIRI expressaram ceticismo em relação aos pontos de vista dos defensores da singularidade, como Ray Kurzweil, de que a superinteligência está “logo ali na esquina”.[14] O MIRI financiou o trabalho de previsão por meio de uma iniciativa chamada AI Impacts, que estuda instâncias históricas de mudanças tecnológicas descontínuas e desenvolveu novas medidas do poder computacional relativo de humanos e hardware de computador.[17]
O MIRI se alinha com os princípios e objetivos do movimento de altruísmo eficaz.[18]
Yudkowsky, Eliezer (2011). «Complex Value Systems in Friendly AI»(PDF). Artificial General Intelligence: 4th International Conference, AGI 2011, Mountain View, CA, USA, August 3–6, 2011. Berlin: Springer