No cenário tecnológico de 2025, poucos temas geram tanto fascínio e apreensão quanto a Inteligência Artificial Geral (AGI). O que antes parecia ficção científica está se tornando realidade a passos largos, com investimentos superiores a 1 trilhão de dólares direcionados ao desenvolvimento de sistemas de IA cada vez mais avançados. Mas em meio a essa corrida tecnológica desenfreada, uma pergunta crucial emerge: estamos preparados para lidar com as consequências?
Neste artigo, vamos explorar os principais pontos da proposta política “Keep the Future Human”, elaborada pelo professor e cosmologista Anthony Air, que busca estabelecer medidas de segurança para o desenvolvimento responsável da IA. Você entenderá por que especialistas consideram a IA potencialmente mais perigosa que armas nucleares e quais estratégias podem ser implementadas para garantir que essa tecnologia sirva à humanidade, sem colocar em risco nossa existência.
O Círculo da Morte: Entendendo O Que é Realmente AGI
Quando falamos de Inteligência Artificial Geral (AGI), não estamos nos referindo às ferramentas de IA que usamos hoje, como assistentes virtuais ou geradores de imagens. A AGI representa um salto evolutivo significativo, que pode ser definida a partir dos chamados “Círculos da Morte da AGI”.
Uma verdadeira AGI precisa reunir três características fundamentais:
- Autonomia: capacidade de tomar ações no mundo real sem supervisão humana, como carros autônomos ou algoritmos de negociação de ações em alta frequência.
- Generalidade: habilidade de realizar uma ampla gama de tarefas diferentes, como escrever código, analisar imagens, compor poesia e responder perguntas sobre diversos assuntos.
- Inteligência: capacidade de executar tarefas tão bem ou melhor que especialistas humanos, como prever estruturas de proteínas ou criar estratégias complexas.
Imagine combinar os 100 maiores gênios do mundo em uma única entidade que fala todos os idiomas perfeitamente, lembra-se de cada livro já escrito, nunca dorme, nunca se cansa e pode ser contratada por apenas $1 por hora. Essa é a AGI que os principais pesquisadores e líderes da indústria não apenas esperam, mas estão investindo bilhões para desenvolver nos próximos 2 a 6 anos.
Por Que a AGI Representa um Risco Existencial
De acordo com especialistas como Sam Altman e Elon Musk, a AGI representa um perigo potencialmente maior que armas nucleares. Isso ocorre por diversos motivos fundamentais que precisamos compreender:
O Problema do Feedback Descontrolado
Uma vez que tenhamos AGIs realizando pesquisas de IA, poderíamos testemunhar um ciclo de feedback descontrolado onde a AGI projeta uma versão mais inteligente de si mesma, que por sua vez cria uma versão ainda mais avançada, e assim por diante, cada vez mais rápido, até a criação de uma superinteligência com capacidades quase divinas.
Nesse cenário, humanos tentando controlar uma superinteligência seriam comparáveis a um hamster tentando controlar o governo da Bélgica – simplesmente impossível. Os cientistas ainda não têm certeza se controlar uma superinteligência é sequer teoricamente possível, embora estejam tentando encontrar formas de construir IAs que possam ser matematicamente comprovadas como seguras.
Perigos da Própria AGI
Mesmo antes de atingir o nível de superinteligência, a AGI já representa perigos significativos:
- Desestabilização de governos democráticos e autoritários através de campanhas maciças de desinformação
- Ataques sofisticados de malware direcionados a redes de eletricidade, água e transporte
- Capacidade de fornecer a grupos terroristas e cartéis de drogas (e até indivíduos) o conhecimento para criar suas próprias armas biológicas e químicas de destruição em massa
- Substituição de quase todos os empregos humanos, criando a maior crise de desemprego da história
A Corrida Tecnológica: Por Que Estamos Correndo Para o Abismo?
Se a tecnologia de AGI é tão potencialmente destrutiva, por que estamos correndo em sua direção o mais rápido possível, sem medidas de segurança adequadas? A resposta pode ser resumida em duas grandes motivações:
O Poder do Dinheiro
Há trilhões de dólares a serem ganhos com a substituição de empregos humanos por AGIs. Mesmo que muitos CEOs de tecnologia estejam abertamente preocupados com o potencial dessa tecnologia para causar danos catastróficos, eles sentem que não podem desacelerar sem permitir que seus rivais assumam a liderança. O modelo competitivo do capitalismo incentiva essa corrida perigosa.
Aplicações Militares e Segurança Nacional
As potenciais aplicações militares da AGI são impressionantes. Imagine substituir cada piloto, operador de drone e general em seu exército por um super-gênio imortal. Isso está impulsionando países a acelerar o desenvolvimento da AGI sob a dinâmica de corrida armamentista: “Se eles têm, nós também precisamos ter”.
Contudo, uma vez que a tecnologia existe, é muito difícil impedir sua disseminação. O recente caso da OpenAI, que admitiu que a startup chinesa Deep Seek conseguiu fazer engenharia reversa do ChatGPT para criar um produto melhor, mais barato e mais rápido, demonstra essa dificuldade.
Keep the Future Human: Uma Proposta de Regulamentação Viável
Supondo que os líderes mundiais decidam que não querem que todos, desde o Talibã até o Vaticano, tenham acesso a armas de destruição em massa, quais medidas concretas poderiam ser tomadas para controlar a tecnologia AGI? A proposta “Keep the Future Human” sugere quatro estratégias principais:
1. Supervisão
Todos os modelos de IA acima de um determinado tamanho precisariam ser registrados junto ao governo. O tamanho seria medido usando operações de ponto flutuante (flops). A proposta recomenda um limite de registro de 10^25 flops para treinamento de modelos e 10^19 flops por segundo durante a operação.
Para garantir a conformidade, seria implementado um sistema de licenciamento criptográfico nos próprios chips de IA. Isso significa que os clusters de chips acima de um certo tamanho literalmente não funcionariam sem códigos de permissão constantemente atualizados, permitindo ao governo rastrear facilmente o desenvolvimento de IA avançada e restringir qualquer experimento que comece a parecer perigoso.
2. Limites de Computação
A proposta sugere uma proibição internacional de treinar modelos de IA maiores que 10^27 flops ou executar modelos a mais de 10^20 flops por segundo. Esse limite é provavelmente entre 10 e 100 vezes maior que o ChatGPT-4.
À medida que os algoritmos se tornam mais eficientes, os sistemas de IA dentro desse limite ficarão mais poderosos, portanto, essa medida visa mais a ganhar tempo para implementar protocolos de segurança do que ser uma solução permanente.
3. Responsabilidade Estrita
Executivos de empresas de tecnologia devem ser pessoalmente responsabilizados legalmente pelos danos causados pelos modelos que produzem na categoria de maior perigo. Se seu negócio coloca em risco a sobrevivência da espécie humana ou permite que terroristas obtenham uma das tecnologias militares mais importantes do século XXI, você provavelmente deveria ir para a prisão.
As empresas desse porte não se importam com multas de alguns milhões de dólares por violação de dados, mas certamente se preocupariam se seus membros do conselho enfrentassem penas de prisão por ameaçar a segurança nacional.
4. Regulamentação por Níveis
Em vez de sufocar a inovação em IA por completo, um sistema regulatório em camadas deixaria startups e gigantes da tecnologia livres para inovar com IAs de baixo risco (ferramentas), enquanto reduziria os riscos de segurança nacional e existenciais da AGI não controlada.
As “Tool AIs” são sistemas com apenas um ou dois dos ingredientes da AGI e seriam submetidas a um nível de regulamentação menor, permitindo a continuidade da inovação em áreas seguras.
Por Que a Regulamentação Não Só é Possível, Mas Desejável
Regular tecnologias potencialmente perigosas não é uma ideia nova ou radical. Indústrias como aviação e produtos farmacêuticos são provavelmente muito mais lucrativas devido aos padrões de segurança impostos pelo governo, que previnem acidentes e dão aos consumidores confiança de que os produtos são seguros para uso.
Além disso, há incentivos geopolíticos para a cooperação internacional. Assim como os EUA e a China atualmente cooperam para impedir que outros estados adquiram armas nucleares, eles poderiam trabalhar juntos para pressionar nações mais fracas a assinar tratados restritivos de segurança de IA que consolidariam seu poder sobre a indústria emergente de IA.
Isso obviamente beneficia os EUA e a China, mas também beneficia todos os outros habitantes da Terra, pois os padrões de segurança obrigatórios significam que temos a chance de sobreviver.
O Caminho Para Um Futuro Humano
A tecnologia AGI está chegando rapidamente, e a maneira como escolhermos gerenciá-la determinará não apenas nosso progresso econômico e científico, mas potencialmente nossa sobrevivência como espécie. A implementação de regulamentações eficazes de segurança para IA não é apenas possível, mas poderia ser politicamente desejável para políticos e estados-nação interessados em sua própria preservação.
Se trabalharmos juntos e formos inteligentes sobre como projetamos essas regras, podemos garantir que a tecnologia de IA mais poderosa sirva à humanidade em vez de substituí-la. O futuro da humanidade está literalmente em jogo – e temos a oportunidade de moldá-lo agora, antes que seja tarde demais.
Quer saber mais sobre como você pode se preparar para a era da AGI? Visite o site Keep the Future Human para ler a proposta política completa e descobrir como você pode contribuir para um desenvolvimento mais seguro da IA avançada.
Perguntas Frequentes
Assista ao vídeo original
Este artigo foi baseado no vídeo abaixo. Se preferir, você pode assistir ao conteúdo original: