Enquanto a indústria de Inteligência Artificial avança a passos largos em 2025, uma cortina de fumaça encobre os problemas reais que precisamos enfrentar. Enquanto os gigantes tecnológicos alardeiam sobre “salvar a humanidade de uma IA superinteligente”, casos concretos de danos causados por sistemas de IA já existentes são frequentemente ignorados ou minimizados. Neste artigo, desmistificamos o discurso sobre “Segurança de IA” e exploramos o que realmente importa neste momento crucial para o desenvolvimento tecnológico.
A Distração Perfeita: O Discurso da “Extinção Humana”
“Mitigar o risco de extinção causado pela IA deve ser uma prioridade global, junto com outros riscos em escala social como pandemias e guerra nuclear.” Declarações como esta, frequentemente repetidas por empresas e pesquisadores de IA, evocam imagens de filmes como Exterminador do Futuro ou Matrix. É uma estratégia conveniente que oferece aos desenvolvedores um argumento impossível de ser refutado para desviar a atenção quando alguém menciona problemas imediatos que eles preferem não discutir.
A realidade é que, enquanto as empresas de tecnologia conversam sobre riscos futuros hipotéticos, problemas reais e urgentes causados por suas tecnologias estão sendo deixados de lado. Pesquisadores citam estatísticas como “Entre 37,8 e 51,4% dos pesquisadores de IA dão pelo menos 10% de chance de que avanços na IA levem a resultados tão ruins quanto a extinção humana.” No entanto, esses números são altamente questionáveis e impossíveis de verificar cientificamente.
Os Problemas Reais que as Empresas de IA Não Querem Discutir
Enquanto o setor direciona a conversa para cenários futuristas, problemas concretos que já estão causando danos significativos recebem pouca atenção:
- Deepfakes não consensuais: Como o caso do site de IA da Microsoft, alimentado pela OpenAI, que foi usado para criar deepfakes pornográficos de Taylor Swift que viralizaram antes do Super Bowl 2024.
- Falhas em sistemas de segurança: Os 736 acidentes e 17 mortes envolvendo o modo de direção autônoma da Tesla.
- Violações éticas: Como quando Scarlett Johansson recusou emprestar sua voz para um assistente virtual da OpenAI, mas a empresa lançou um produto com uma voz praticamente idêntica à dela.
- Discriminação algorítmica: IAs de triagem de currículos que discriminam candidatos com nomes étnicos ou incomuns.
- Falhas em IA de navegação: Sistemas que direcionam pessoas diretamente para incêndios que estavam tentando escapar, pois as estradas em direção ao perigo tinham menos congestionamento.
- Uso indevido governamental: Entre 11.000 e 26.000 pessoas acusadas injustamente de fraude previdenciária por um sistema de IA falho usado pelo governo holandês.
- Falhas em sistemas críticos: O comportamento “agressivo e arriscado” da IA nos sistemas de controle das aeronaves Boeing 737 MAX, que resultaram em acidentes fatais com 346 mortes.
Os Incentivos Problemáticos da “Segurança da IA”
Como alguém com 35 anos de experiência profissional diagnosticando, corrigindo e escrevendo software, posso afirmar que os incentivos para a “Segurança da IA” são problemáticos. É um cenário similar ao de empresas como FTX ou Theranos, mas sem os riscos de verificação imediata.
Quando há muito dinheiro envolvido e um longo prazo antes que qualquer resultado seja esperado, aumentam as chances de fraude ou, no mínimo, de desperdício de tempo e recursos. Segundo a Goldman Sachs, as empresas estão a caminho de gastar US$ 1 trilhão em IA, e parte desse valor deveria ser alocada aos detentores de direitos autorais cujo trabalho foi utilizado sem permissão para treinar esses sistemas.
Não haverá como saber se os principais projetos de “Segurança da IA” fizeram um bom trabalho, ou se fizeram alguma coisa, a menos que e até que uma IA superinteligente realmente surja. E, nesse ponto, já será tarde demais.
A Mudança de Narrativa: Da Skynet à China
Recentemente, a narrativa começou a mudar. Sam Altman, CEO da OpenAI, após desfazer equipes de segurança, passou a argumentar que é preciso acelerar o desenvolvimento da IA para que a China não chegue primeiro. Segundo ele, a China irá “aproveitar a tecnologia para desenvolver novas formas de espionar seus próprios cidadãos ou criar armas cibernéticas de próxima geração para usar contra outros países.”
Ele pulou diretamente de cenários como O Exterminador do Futuro e Matrix para Amanhecer Violento e O Candidato da Manchúria. Se permitirmos essa mudança de narrativa, de “Salvar o mundo da Skynet” para “Impedir que a China construa sua própria Skynet construindo a nossa primeiro”, acabaremos em uma distopia cyberpunk.
O Que Realmente Deveria Ser a “Segurança da IA”
As empresas de IA precisam ser forçadas a ser transparentes. Elas devem auditar seus dados de treinamento e compensar as pessoas cujo trabalho foi utilizado sem autorização. Precisam ser responsabilizadas financeiramente pelas criações de suas IAs. A melhor maneira de acabar com deepfakes pornográficos, por exemplo, é multar severamente as empresas cujas IAs podem ser enganadas para criá-los.
Embora os profissionais de negócios da área não queiram admitir, todos os produtos de IA são apenas software, e as regras de desenvolvimento de software ainda se aplicam. Especificamente, as regras do ciclo de vida de desenvolvimento de software.
Aprendendo com o Desenvolvimento de Software
A pior maneira de desenvolver software é o modelo “Big Bang” – trancar-se com desenvolvedores e testadores em uma torre de marfim, pensar, mexer e testar sem mostrar nada a ninguém por anos, até que as condições sejam exatamente adequadas para o lançamento. Isso soa familiar? Trabalhar na construção de proteções contra uma IA superinteligente teórica por anos, esperando que, quando necessário, tenha acertado na primeira tentativa?
Construir um software minimamente viável, lançá-lo e, em seguida, corrigir bugs e adicionar novos recursos incrementalmente é melhor e resulta em um sistema muito mais estável. Esse é o modelo de ciclo de vida de desenvolvimento iterativo, do qual o Agile é uma derivação.
Imagine se as empresas pudessem descobrir como auditar seus modelos e entender quais dados foram usados e quanto contribuíram para cada resposta. Essa informação permitiria estabelecer um modelo semelhante ao Spotify, onde uma fração do dinheiro recebido por cada consulta seria alocada proporcionalmente entre todos os detentores de direitos autorais que contribuíram para a resposta.
Um Chamado por Responsabilidade na Era da IA
A “Segurança da IA” não deveria ser sobre “salvar o mundo”, seja da Skynet ou da China. Essa é uma distração. É delusoriamente narcisista e não apenas facilita que as empresas de IA ignorem os problemas reais, mas também as faz parecer heróis em vez de causadoras de tanto sofrimento.
Precisamos exigir mais. As IAs estão enchendo a Internet de problemas a cada dia, e cada vez mais esses problemas estão causando danos reais a pessoas reais. Se alguém da OpenAI, Microsoft ou Google tentar convencê-lo de que está muito ocupado “salvando o mundo” para se preocupar com esses “pequenos problemas” que afetam “pessoas comuns”, eles provavelmente estão apenas tentando vender um monte de opções de ações supervalorizadas antes que a bolha estoure.
Tome uma atitude hoje: Informe-se sobre as políticas de dados das ferramentas de IA que você utiliza, apoie regulamentações que responsabilizem as empresas por danos causados por seus sistemas, e questione sempre que uma empresa de tecnologia tentar desviar o assunto de problemas concretos para cenários futuristas hipotéticos.
Perguntas Frequentes
Assista ao vídeo original
Este artigo foi baseado no vídeo abaixo. Se preferir, você pode assistir ao conteúdo original: