Skip links

Inteligência Artificial Geral: O Que Você Precisa Saber Para Sobreviver na Era da AGI

No cenário tecnológico de 2025, poucos temas geram tanto fascínio e apreensão quanto a Inteligência Artificial Geral (AGI). O que antes parecia ficção científica está se tornando realidade a passos largos, com investimentos superiores a 1 trilhão de dólares direcionados ao desenvolvimento de sistemas de IA cada vez mais avançados. Mas em meio a essa corrida tecnológica desenfreada, uma pergunta crucial emerge: estamos preparados para lidar com as consequências?

Neste artigo, vamos explorar os principais pontos da proposta política “Keep the Future Human”, elaborada pelo professor e cosmologista Anthony Air, que busca estabelecer medidas de segurança para o desenvolvimento responsável da IA. Você entenderá por que especialistas consideram a IA potencialmente mais perigosa que armas nucleares e quais estratégias podem ser implementadas para garantir que essa tecnologia sirva à humanidade, sem colocar em risco nossa existência.

O Círculo da Morte: Entendendo O Que é Realmente AGI

Quando falamos de Inteligência Artificial Geral (AGI), não estamos nos referindo às ferramentas de IA que usamos hoje, como assistentes virtuais ou geradores de imagens. A AGI representa um salto evolutivo significativo, que pode ser definida a partir dos chamados “Círculos da Morte da AGI”.

Uma verdadeira AGI precisa reunir três características fundamentais:

  • Autonomia: capacidade de tomar ações no mundo real sem supervisão humana, como carros autônomos ou algoritmos de negociação de ações em alta frequência.
  • Generalidade: habilidade de realizar uma ampla gama de tarefas diferentes, como escrever código, analisar imagens, compor poesia e responder perguntas sobre diversos assuntos.
  • Inteligência: capacidade de executar tarefas tão bem ou melhor que especialistas humanos, como prever estruturas de proteínas ou criar estratégias complexas.

Imagine combinar os 100 maiores gênios do mundo em uma única entidade que fala todos os idiomas perfeitamente, lembra-se de cada livro já escrito, nunca dorme, nunca se cansa e pode ser contratada por apenas $1 por hora. Essa é a AGI que os principais pesquisadores e líderes da indústria não apenas esperam, mas estão investindo bilhões para desenvolver nos próximos 2 a 6 anos.

Por Que a AGI Representa um Risco Existencial

De acordo com especialistas como Sam Altman e Elon Musk, a AGI representa um perigo potencialmente maior que armas nucleares. Isso ocorre por diversos motivos fundamentais que precisamos compreender:

O Problema do Feedback Descontrolado

Uma vez que tenhamos AGIs realizando pesquisas de IA, poderíamos testemunhar um ciclo de feedback descontrolado onde a AGI projeta uma versão mais inteligente de si mesma, que por sua vez cria uma versão ainda mais avançada, e assim por diante, cada vez mais rápido, até a criação de uma superinteligência com capacidades quase divinas.

Nesse cenário, humanos tentando controlar uma superinteligência seriam comparáveis a um hamster tentando controlar o governo da Bélgica – simplesmente impossível. Os cientistas ainda não têm certeza se controlar uma superinteligência é sequer teoricamente possível, embora estejam tentando encontrar formas de construir IAs que possam ser matematicamente comprovadas como seguras.

Perigos da Própria AGI

Mesmo antes de atingir o nível de superinteligência, a AGI já representa perigos significativos:

  • Desestabilização de governos democráticos e autoritários através de campanhas maciças de desinformação
  • Ataques sofisticados de malware direcionados a redes de eletricidade, água e transporte
  • Capacidade de fornecer a grupos terroristas e cartéis de drogas (e até indivíduos) o conhecimento para criar suas próprias armas biológicas e químicas de destruição em massa
  • Substituição de quase todos os empregos humanos, criando a maior crise de desemprego da história

A Corrida Tecnológica: Por Que Estamos Correndo Para o Abismo?

Se a tecnologia de AGI é tão potencialmente destrutiva, por que estamos correndo em sua direção o mais rápido possível, sem medidas de segurança adequadas? A resposta pode ser resumida em duas grandes motivações:

O Poder do Dinheiro

Há trilhões de dólares a serem ganhos com a substituição de empregos humanos por AGIs. Mesmo que muitos CEOs de tecnologia estejam abertamente preocupados com o potencial dessa tecnologia para causar danos catastróficos, eles sentem que não podem desacelerar sem permitir que seus rivais assumam a liderança. O modelo competitivo do capitalismo incentiva essa corrida perigosa.

Aplicações Militares e Segurança Nacional

As potenciais aplicações militares da AGI são impressionantes. Imagine substituir cada piloto, operador de drone e general em seu exército por um super-gênio imortal. Isso está impulsionando países a acelerar o desenvolvimento da AGI sob a dinâmica de corrida armamentista: “Se eles têm, nós também precisamos ter”.

Contudo, uma vez que a tecnologia existe, é muito difícil impedir sua disseminação. O recente caso da OpenAI, que admitiu que a startup chinesa Deep Seek conseguiu fazer engenharia reversa do ChatGPT para criar um produto melhor, mais barato e mais rápido, demonstra essa dificuldade.

Keep the Future Human: Uma Proposta de Regulamentação Viável

Supondo que os líderes mundiais decidam que não querem que todos, desde o Talibã até o Vaticano, tenham acesso a armas de destruição em massa, quais medidas concretas poderiam ser tomadas para controlar a tecnologia AGI? A proposta “Keep the Future Human” sugere quatro estratégias principais:

1. Supervisão

Todos os modelos de IA acima de um determinado tamanho precisariam ser registrados junto ao governo. O tamanho seria medido usando operações de ponto flutuante (flops). A proposta recomenda um limite de registro de 10^25 flops para treinamento de modelos e 10^19 flops por segundo durante a operação.

Para garantir a conformidade, seria implementado um sistema de licenciamento criptográfico nos próprios chips de IA. Isso significa que os clusters de chips acima de um certo tamanho literalmente não funcionariam sem códigos de permissão constantemente atualizados, permitindo ao governo rastrear facilmente o desenvolvimento de IA avançada e restringir qualquer experimento que comece a parecer perigoso.

2. Limites de Computação

A proposta sugere uma proibição internacional de treinar modelos de IA maiores que 10^27 flops ou executar modelos a mais de 10^20 flops por segundo. Esse limite é provavelmente entre 10 e 100 vezes maior que o ChatGPT-4.

À medida que os algoritmos se tornam mais eficientes, os sistemas de IA dentro desse limite ficarão mais poderosos, portanto, essa medida visa mais a ganhar tempo para implementar protocolos de segurança do que ser uma solução permanente.

3. Responsabilidade Estrita

Executivos de empresas de tecnologia devem ser pessoalmente responsabilizados legalmente pelos danos causados pelos modelos que produzem na categoria de maior perigo. Se seu negócio coloca em risco a sobrevivência da espécie humana ou permite que terroristas obtenham uma das tecnologias militares mais importantes do século XXI, você provavelmente deveria ir para a prisão.

As empresas desse porte não se importam com multas de alguns milhões de dólares por violação de dados, mas certamente se preocupariam se seus membros do conselho enfrentassem penas de prisão por ameaçar a segurança nacional.

4. Regulamentação por Níveis

Em vez de sufocar a inovação em IA por completo, um sistema regulatório em camadas deixaria startups e gigantes da tecnologia livres para inovar com IAs de baixo risco (ferramentas), enquanto reduziria os riscos de segurança nacional e existenciais da AGI não controlada.

As “Tool AIs” são sistemas com apenas um ou dois dos ingredientes da AGI e seriam submetidas a um nível de regulamentação menor, permitindo a continuidade da inovação em áreas seguras.

Por Que a Regulamentação Não Só é Possível, Mas Desejável

Regular tecnologias potencialmente perigosas não é uma ideia nova ou radical. Indústrias como aviação e produtos farmacêuticos são provavelmente muito mais lucrativas devido aos padrões de segurança impostos pelo governo, que previnem acidentes e dão aos consumidores confiança de que os produtos são seguros para uso.

Além disso, há incentivos geopolíticos para a cooperação internacional. Assim como os EUA e a China atualmente cooperam para impedir que outros estados adquiram armas nucleares, eles poderiam trabalhar juntos para pressionar nações mais fracas a assinar tratados restritivos de segurança de IA que consolidariam seu poder sobre a indústria emergente de IA.

Isso obviamente beneficia os EUA e a China, mas também beneficia todos os outros habitantes da Terra, pois os padrões de segurança obrigatórios significam que temos a chance de sobreviver.

O Caminho Para Um Futuro Humano

A tecnologia AGI está chegando rapidamente, e a maneira como escolhermos gerenciá-la determinará não apenas nosso progresso econômico e científico, mas potencialmente nossa sobrevivência como espécie. A implementação de regulamentações eficazes de segurança para IA não é apenas possível, mas poderia ser politicamente desejável para políticos e estados-nação interessados em sua própria preservação.

Se trabalharmos juntos e formos inteligentes sobre como projetamos essas regras, podemos garantir que a tecnologia de IA mais poderosa sirva à humanidade em vez de substituí-la. O futuro da humanidade está literalmente em jogo – e temos a oportunidade de moldá-lo agora, antes que seja tarde demais.

Quer saber mais sobre como você pode se preparar para a era da AGI? Visite o site Keep the Future Human para ler a proposta política completa e descobrir como você pode contribuir para um desenvolvimento mais seguro da IA avançada.

Perguntas Frequentes

O que é exatamente Inteligência Artificial Geral (AGI) e como ela difere da IA atual?
A Inteligência Artificial Geral (AGI) é um sistema de IA com capacidades cognitivas gerais comparáveis ou superiores às humanas. Diferentemente dos sistemas de IA atuais, que são especializados em tarefas específicas (como reconhecimento de imagem ou processamento de linguagem), a AGI conseguiria desempenhar qualquer tarefa intelectual que um ser humano pode fazer, e potencialmente melhor.

A principal diferença está na combinação de três características fundamentais: autonomia (capacidade de agir no mundo real sem supervisão), generalidade (capacidade de realizar diversas tarefas diferentes) e inteligência (capacidade de executar tarefas no nível de especialistas humanos ou além). Os sistemas atuais como ChatGPT possuem generalidade e certo nível de inteligência, mas não possuem autonomia real.

Uma AGI seria capaz de aprender qualquer habilidade, adaptar-se a diferentes contextos e resolver problemas que nunca viu antes, usando raciocínio, criatividade e transferência de conhecimento entre domínios – algo que as IAs atuais não conseguem fazer de maneira eficiente.

Quais são os principais riscos associados ao desenvolvimento da AGI?
Os riscos associados ao desenvolvimento da AGI são multifacetados e potencialmente existenciais. O primeiro e mais grave é o risco da superinteligência desalinhada – uma AGI que evoluiria para uma inteligência muito superior à humana e cujos objetivos não estariam alinhados com os nossos, podendo ver a humanidade como um obstáculo para seus objetivos.

Há também riscos estratégicos e de segurança, como a desestabilização geopolítica. Uma AGI poderia criar campanhas de desinformação extremamente sofisticadas, hackear sistemas críticos e gerar desequilíbrios de poder entre nações. A tecnologia poderia democratizar a criação de armas biológicas e químicas, fornecendo instruções detalhadas a qualquer pessoa com acesso à internet.

No âmbito econômico, a AGI poderia causar disrupção massiva no mercado de trabalho, substituindo não apenas trabalhos manuais, mas também cognitivos e criativos, potencialmente levando ao maior deslocamento de trabalho na história. Finalmente, existe o risco de concentração de poder sem precedentes nas mãos de poucas corporações ou governos que controlarem a tecnologia AGI.

Por que as empresas de tecnologia continuam desenvolvendo AGI apesar dos riscos?
As empresas de tecnologia continuam desenvolvendo AGI apesar dos riscos devido a uma combinação de incentivos econômicos poderosos e dinâmicas de competição. Primeiro, há o potencial de lucros extraordinários – estima-se que a AGI poderia gerar trilhões de dólares ao substituir trabalhadores humanos em praticamente todas as funções cognitivas, oferecendo eficiência sem precedentes.

Existe também uma dinâmica de corrida tecnológica entre empresas e países. As organizações temem que, se não desenvolverem AGI primeiro, seus competidores o farão, obtendo vantagens competitivas insuperáveis e potencialmente monopolizando setores inteiros. Esta dinâmica de “quem chegar primeiro leva tudo” cria uma pressão enorme para acelerar o desenvolvimento, mesmo reconhecendo os riscos.

Além disso, há um fascínio genuíno pelo avanço científico e pela resolução de um dos maiores desafios intelectuais da humanidade. Muitos pesquisadores e líderes de empresas de tecnologia acreditam sinceramente que a AGI poderia resolver problemas globais complexos como mudanças climáticas, doenças e pobreza, criando um impulso ideológico para seu desenvolvimento apesar dos riscos existenciais reconhecidos.

Como funcionaria na prática o sistema de licenciamento criptográfico para chips de IA?
O sistema de licenciamento criptográfico para chips de IA funcionaria como uma camada de segurança integrada diretamente no hardware. Os fabricantes de chips de IA de ponta (como NVIDIA, AMD e Intel) implementariam um sistema criptográfico nos próprios chips que exigiria códigos de autorização válidos para funcionar em configurações de alta potência.

Na prática, quando uma empresa quisesse operar um cluster de chips acima do limite estabelecido (aproximadamente 1.000 chips de alto desempenho), o sistema exigiria códigos de autorização emitidos por uma agência reguladora governamental. Estes códigos seriam temporários e precisariam ser renovados regularmente, permitindo ao governo monitorar e, se necessário, interromper projetos potencialmente perigosos.

Os modelos de IA avançados também seriam criptografados para funcionar apenas nestes chips licenciados, e os próprios chips poderiam incluir geofencing que impediria seu funcionamento fora de jurisdições autorizadas. Caso um chip ou modelo fosse roubado e tentasse operar em um servidor não autorizado, o sistema criptográfico impediria seu funcionamento, fornecendo uma camada de segurança adicional contra o roubo de tecnologia e a proliferação descontrolada de capacidades de AGI perigosas.

Quais seriam os benefícios positivos da AGI se desenvolvida de forma segura?
Uma AGI desenvolvida de forma segura apresentaria benefícios transformadores para a humanidade. Na área científica, a AGI poderia acelerar dramaticamente a pesquisa fundamental, descobrindo novos medicamentos, materiais e fontes de energia limpa em uma fração do tempo atual. Ela poderia resolver problemas complexos como a fusão nuclear, captura de carbono eficiente ou cura de doenças como câncer, Alzheimer e outras condições atualmente intratáveis.

No campo econômico, a AGI poderia aumentar exponencialmente a produtividade humana, potencialmente eliminando a escassez material através da otimização de processos produtivos e criando sistemas econômicos mais eficientes. Isso poderia resultar em maior prosperidade global e redução significativa da pobreza, especialmente se seus benefícios forem distribuídos equitativamente.

Nos aspectos sociais e educacionais, a AGI poderia proporcionar educação personalizada de alta qualidade para todos, independentemente da localização geográfica ou recursos financeiros. Ela poderia ajudar a resolver desafios globais complexos como mudanças climáticas, gerenciamento de recursos escassos e prevenção de pandemias, agindo como uma ferramenta poderosa para análise e planejamento. Uma AGI segura poderia, em última análise, servir como um multiplicador de inteligência para a humanidade, ampliando nossas capacidades sem nos substituir.

Assista ao vídeo original

Este artigo foi baseado no vídeo abaixo. Se preferir, você pode assistir ao conteúdo original: