Durante uma reunião interna da OpenAI em 2023, o cientista Ilya Sutskever, cofundador da empresa criadora do ChatGPT, afirmou que o lançamento da Inteligência Artificial Geral (AGI) poderia desencadear um “arrebatamento” e sugeriu a construção de um bunker apocalíptico para abrigar os pesquisadores da companhia.
“Assim que todos entrarmos no bunker…”, disse Sutskever durante o encontro, sendo interrompido por um colega que o questionou: “Desculpe, que bunker?”. O cientista respondeu: “Definitivamente vamos construir um bunker antes de lançarmos o AGI. Claro, será opcional se você quiser entrar no bunker”.
As falas foram reveladas pela jornalista Karen Hao, autora do livro Empire of AI: Dreams and Nightmares in Sam Altman’s OpenAI, publicado com base em relatos de funcionários da empresa.
De acordo com Hao, a ideia do bunker era mencionada com frequência por Sutskever em discussões internas e refletia sua visão sobre os potenciais efeitos extremos da criação de uma inteligência artificial mais avançada do que a humana.
“Há um grupo de pessoas – Sutskever é uma delas – que acredita que a criação da AGI trará um arrebatamento. Literalmente, um arrebatamento”, declarou um dos pesquisadores da OpenAI, citado no livro.
Ainda segundo Hao, dentro da empresa, Sutskever é visto como uma figura quase mística, que costuma tratar a inteligência artificial não apenas como uma tecnologia, mas também em termos morais e metafísicos. Ele foi um dos principais cientistas por trás do desenvolvimento inicial do ChatGPT, lançado ao público em novembro de 2022.
O New York Post informou que Sutskever se recusou a comentar sobre as declarações. Contudo, os relatos obtidos pela autora indicam que há um clima de preocupação e ansiedade entre os próprios criadores das tecnologias de IA mais avançadas do mundo.
Em 2023, o CEO da OpenAI, Sam Altman, também demonstrou apreensão quanto aos riscos futuros da inteligência artificial. No dia 30 de maio daquele ano, ele assinou uma carta pública, ao lado de outros empresários do Vale do Silício, alertando que os avanços em IA poderiam representar um “risco de extinção” para a humanidade.
A sigla AGI refere-se à “Artificial General Intelligence” – um conceito teórico de inteligência artificial com capacidade cognitiva equivalente ou superior à humana, capaz de aprender e realizar qualquer tarefa intelectual. Embora ainda não tenha sido alcançada, a possibilidade de seu surgimento levanta debates intensos entre pesquisadores, empresários e autoridades governamentais sobre seus impactos éticos, sociais e geopolíticos.