Com os avanços da IA, muitas pessoas têm medo de filmes como O Exterminador do Futuro estejam cada vez mais perto de se tornarem realidade, colocando a humanidade em risco. Aparentemente, esse é um temor também presente em líderes de gigantes da tecnologia.
O cofundador da OpenAI, Ilya Sutskever, faz parte desse grupo. Segundo a BBC, ele sugeriu a construção de um abrigo subterrâneo para proteger os cientistas da startup em uma reunião dias antes do lançamento do ChatGPT, em 2023, já pensando na Inteligência Artificial Geral (AGI), versão mais poderosa da IA.
Bunkers e outros investimentos
Não está claro se a ideia de Sutskever foi adiante, mas Mark Zuckerberg parece tê-la adotado. De acordo com a Wired, o CEO da Meta está construindo um bunker no Havaí, com custo estimado em US$ 270 milhões (R$ 1,4 bilhão pela cotação atual), geração de energia e estoque de alimentos.
- O misterioso imóvel subterrâneo, sobre o qual os construtores são proibidos de comentar, tem 465 m² de área, portas acústicas e saídas de emergência;
- Quando perguntado a respeito do assunto, o bilionário disse que se trata de um porão, e não de um local para se proteger do “fim do mundo” causado pela IA;
- Especula-se, ainda, que Zuckerberg possui um segundo bunker, construído em Palo Alto, na Califórnia, com área de 650 m²;
- Conforme o cofundador do LinkedIn, Reid Hoffman, cerca de 50% dos bilionários da área tech investem na compra de imóveis luxuosos com grandes espaços subterrâneos, funcionando como um “seguro contra o apocalipse”.
Um deles seria o cofundador da Microsoft, Bill Gates. Embora ele não confirme, rumores apontam que o filantropo possui abrigos subterrâneos em várias de suas propriedades, oferecendo proteção, também, contra guerras nucleares, pandemias e desastres ambientais, entre outras ameaças.
Elon Musk também tem planos caso a IA ou algo diferente represente riscos para a humanidade, como sair do planeta — ele já comentou sobre colonizar Marte. O espaço é uma opção, ainda, para o fundador da Amazon, Jeff Bezos, enquanto Sam Altman, da OpenAI, é outro que aposta em bunkers de sobrevivência.
Ficção ou realidade?
A ideia de uma tecnologia com capacidades superiores às humanas não é consenso entre executivos e especialistas. Enquanto uns afirmam que a superinteligência estará disponível em 2026 ou 2027, outros acreditam que algo do tipo está longe de ser lançado ou nem chegará a existir.
Para o criador da World Wide Web, Tim Berners Lee, é fundamental manter o controle humano sobre a AGI ou outros sistemas autônomos caso essas tecnologias se tornem realidade. “Temos que ser capazes de desligá-la”, opinou o físico britânico, se referindo à possibilidade de que a IA passe a ser problemática.
E você, tem algum plano para se proteger caso a IA se transforme em uma ameaça? Comente nas redes sociais do TecMundo.
