Skip links

Inteligência Artificial em 2025: O Verdadeiro Debate Sobre Segurança que as Empresas Querem Evitar

Enquanto a indústria de Inteligência Artificial avança a passos largos em 2025, uma cortina de fumaça encobre os problemas reais que precisamos enfrentar. Enquanto os gigantes tecnológicos alardeiam sobre “salvar a humanidade de uma IA superinteligente”, casos concretos de danos causados por sistemas de IA já existentes são frequentemente ignorados ou minimizados. Neste artigo, desmistificamos o discurso sobre “Segurança de IA” e exploramos o que realmente importa neste momento crucial para o desenvolvimento tecnológico.

A Distração Perfeita: O Discurso da “Extinção Humana”

“Mitigar o risco de extinção causado pela IA deve ser uma prioridade global, junto com outros riscos em escala social como pandemias e guerra nuclear.” Declarações como esta, frequentemente repetidas por empresas e pesquisadores de IA, evocam imagens de filmes como Exterminador do Futuro ou Matrix. É uma estratégia conveniente que oferece aos desenvolvedores um argumento impossível de ser refutado para desviar a atenção quando alguém menciona problemas imediatos que eles preferem não discutir.

A realidade é que, enquanto as empresas de tecnologia conversam sobre riscos futuros hipotéticos, problemas reais e urgentes causados por suas tecnologias estão sendo deixados de lado. Pesquisadores citam estatísticas como “Entre 37,8 e 51,4% dos pesquisadores de IA dão pelo menos 10% de chance de que avanços na IA levem a resultados tão ruins quanto a extinção humana.” No entanto, esses números são altamente questionáveis e impossíveis de verificar cientificamente.

Os Problemas Reais que as Empresas de IA Não Querem Discutir

Enquanto o setor direciona a conversa para cenários futuristas, problemas concretos que já estão causando danos significativos recebem pouca atenção:

  • Deepfakes não consensuais: Como o caso do site de IA da Microsoft, alimentado pela OpenAI, que foi usado para criar deepfakes pornográficos de Taylor Swift que viralizaram antes do Super Bowl 2024.
  • Falhas em sistemas de segurança: Os 736 acidentes e 17 mortes envolvendo o modo de direção autônoma da Tesla.
  • Violações éticas: Como quando Scarlett Johansson recusou emprestar sua voz para um assistente virtual da OpenAI, mas a empresa lançou um produto com uma voz praticamente idêntica à dela.
  • Discriminação algorítmica: IAs de triagem de currículos que discriminam candidatos com nomes étnicos ou incomuns.
  • Falhas em IA de navegação: Sistemas que direcionam pessoas diretamente para incêndios que estavam tentando escapar, pois as estradas em direção ao perigo tinham menos congestionamento.
  • Uso indevido governamental: Entre 11.000 e 26.000 pessoas acusadas injustamente de fraude previdenciária por um sistema de IA falho usado pelo governo holandês.
  • Falhas em sistemas críticos: O comportamento “agressivo e arriscado” da IA nos sistemas de controle das aeronaves Boeing 737 MAX, que resultaram em acidentes fatais com 346 mortes.

Os Incentivos Problemáticos da “Segurança da IA”

Como alguém com 35 anos de experiência profissional diagnosticando, corrigindo e escrevendo software, posso afirmar que os incentivos para a “Segurança da IA” são problemáticos. É um cenário similar ao de empresas como FTX ou Theranos, mas sem os riscos de verificação imediata.

Quando há muito dinheiro envolvido e um longo prazo antes que qualquer resultado seja esperado, aumentam as chances de fraude ou, no mínimo, de desperdício de tempo e recursos. Segundo a Goldman Sachs, as empresas estão a caminho de gastar US$ 1 trilhão em IA, e parte desse valor deveria ser alocada aos detentores de direitos autorais cujo trabalho foi utilizado sem permissão para treinar esses sistemas.

Não haverá como saber se os principais projetos de “Segurança da IA” fizeram um bom trabalho, ou se fizeram alguma coisa, a menos que e até que uma IA superinteligente realmente surja. E, nesse ponto, já será tarde demais.

A Mudança de Narrativa: Da Skynet à China

Recentemente, a narrativa começou a mudar. Sam Altman, CEO da OpenAI, após desfazer equipes de segurança, passou a argumentar que é preciso acelerar o desenvolvimento da IA para que a China não chegue primeiro. Segundo ele, a China irá “aproveitar a tecnologia para desenvolver novas formas de espionar seus próprios cidadãos ou criar armas cibernéticas de próxima geração para usar contra outros países.”

Ele pulou diretamente de cenários como O Exterminador do Futuro e Matrix para Amanhecer Violento e O Candidato da Manchúria. Se permitirmos essa mudança de narrativa, de “Salvar o mundo da Skynet” para “Impedir que a China construa sua própria Skynet construindo a nossa primeiro”, acabaremos em uma distopia cyberpunk.

O Que Realmente Deveria Ser a “Segurança da IA”

As empresas de IA precisam ser forçadas a ser transparentes. Elas devem auditar seus dados de treinamento e compensar as pessoas cujo trabalho foi utilizado sem autorização. Precisam ser responsabilizadas financeiramente pelas criações de suas IAs. A melhor maneira de acabar com deepfakes pornográficos, por exemplo, é multar severamente as empresas cujas IAs podem ser enganadas para criá-los.

Embora os profissionais de negócios da área não queiram admitir, todos os produtos de IA são apenas software, e as regras de desenvolvimento de software ainda se aplicam. Especificamente, as regras do ciclo de vida de desenvolvimento de software.

Aprendendo com o Desenvolvimento de Software

A pior maneira de desenvolver software é o modelo “Big Bang” – trancar-se com desenvolvedores e testadores em uma torre de marfim, pensar, mexer e testar sem mostrar nada a ninguém por anos, até que as condições sejam exatamente adequadas para o lançamento. Isso soa familiar? Trabalhar na construção de proteções contra uma IA superinteligente teórica por anos, esperando que, quando necessário, tenha acertado na primeira tentativa?

Construir um software minimamente viável, lançá-lo e, em seguida, corrigir bugs e adicionar novos recursos incrementalmente é melhor e resulta em um sistema muito mais estável. Esse é o modelo de ciclo de vida de desenvolvimento iterativo, do qual o Agile é uma derivação.

Imagine se as empresas pudessem descobrir como auditar seus modelos e entender quais dados foram usados e quanto contribuíram para cada resposta. Essa informação permitiria estabelecer um modelo semelhante ao Spotify, onde uma fração do dinheiro recebido por cada consulta seria alocada proporcionalmente entre todos os detentores de direitos autorais que contribuíram para a resposta.

Um Chamado por Responsabilidade na Era da IA

A “Segurança da IA” não deveria ser sobre “salvar o mundo”, seja da Skynet ou da China. Essa é uma distração. É delusoriamente narcisista e não apenas facilita que as empresas de IA ignorem os problemas reais, mas também as faz parecer heróis em vez de causadoras de tanto sofrimento.

Precisamos exigir mais. As IAs estão enchendo a Internet de problemas a cada dia, e cada vez mais esses problemas estão causando danos reais a pessoas reais. Se alguém da OpenAI, Microsoft ou Google tentar convencê-lo de que está muito ocupado “salvando o mundo” para se preocupar com esses “pequenos problemas” que afetam “pessoas comuns”, eles provavelmente estão apenas tentando vender um monte de opções de ações supervalorizadas antes que a bolha estoure.

Tome uma atitude hoje: Informe-se sobre as políticas de dados das ferramentas de IA que você utiliza, apoie regulamentações que responsabilizem as empresas por danos causados por seus sistemas, e questione sempre que uma empresa de tecnologia tentar desviar o assunto de problemas concretos para cenários futuristas hipotéticos.

Perguntas Frequentes

O que realmente significa 'Segurança de IA' e por que é controverso?
O termo “Segurança de IA” é frequentemente utilizado pelas empresas de tecnologia para se referir a pesquisas e medidas destinadas a prevenir riscos existenciais hipotéticos que sistemas de IA avançados poderiam representar no futuro, como cenários de “superinteligência” descontrolada.

A controvérsia surge porque, enquanto enormes recursos são direcionados para esses cenários futuristas e não verificáveis, problemas reais e atuais causados por sistemas de IA existentes – como discriminação algorítmica, deepfakes não consensuais, violações de privacidade e acidentes fatais – recebem muito menos atenção e investimento por parte dessas mesmas empresas.

Esta discrepância sugere que o discurso de “Segurança de IA” pode funcionar, em alguns casos, como uma cortina de fumaça conveniente para desviar a atenção de questões presentes que poderiam prejudicar a imagem das empresas ou reduzir seus lucros imediatos.

Quais são os principais danos reais já causados por sistemas de IA que deveriam receber mais atenção?
Os sistemas de IA já existentes têm causado danos significativos em várias áreas. Entre os exemplos mais graves estão os acidentes fatais envolvendo veículos autônomos, como os 736 acidentes e 17 mortes relacionados ao Autopilot da Tesla. Sistemas de reconhecimento facial imperfeitos têm levado à prisão injusta de pessoas inocentes, particularmente afetando desproporcionalmente pessoas negras e outras minorias.

No campo dos direitos autorais e propriedade intelectual, modelos de IA são treinados com bilhões de obras criativas sem compensação ou consentimento dos criadores. Deepfakes pornográficos não consensuais, como os criados de Taylor Swift que viralizaram em 2024, representam uma grave violação da dignidade e autonomia das pessoas.

Sistemas governamentais de IA para detecção de fraudes têm acusado injustamente dezenas de milhares de cidadãos, como no caso holandês onde entre 11.000 e 26.000 pessoas foram incorretamente flagradas. Esses casos demonstram que os danos não são teóricos ou futuros – estão acontecendo agora, afetando vidas reais e exigindo atenção imediata.

Como podemos regular efetivamente a IA para mitigar danos atuais sem impedir a inovação?
Uma regulamentação eficaz da IA deve equilibrar a proteção contra danos com o espaço para inovação responsável. Uma abordagem promissora é adotar regulamentações baseadas em risco, onde o nível de supervisão aumenta proporcionalmente ao potencial de dano da aplicação – com regras mais rigorosas para sistemas usados em áreas críticas como saúde, justiça criminal e segurança pública.

Exigir transparência algorítmica e auditorias independentes regulares seria fundamental. As empresas deveriam ser obrigadas a documentar as fontes de dados de treinamento, compensar adequadamente os criadores de conteúdo utilizado, e submeter seus sistemas a testes de viés e segurança antes de lançamentos públicos.

Um sistema de responsabilização clara também é essencial – as empresas devem ser legalmente responsáveis pelos danos causados por seus sistemas de IA, o que criaria incentivos financeiros para o desenvolvimento mais cuidadoso. Estabelecer órgãos reguladores especializados com especialistas técnicos e éticos poderia manter a regulamentação atualizada com os avanços tecnológicos, garantindo que a inovação continue, mas de forma responsável e centrada no ser humano.

Por que o modelo de desenvolvimento de software iterativo seria melhor para a segurança da IA do que abordagens 'Big Bang'?
O modelo de desenvolvimento iterativo é superior para a segurança da IA porque permite identificar e corrigir problemas precocemente, antes que se tornem críticos ou sistêmicos. Em vez de desenvolver sistemas complexos isoladamente por anos e então lançá-los ao mundo, a abordagem iterativa envolve ciclos curtos de desenvolvimento, testes e feedback.

Esta metodologia permite que problemas de segurança sejam descobertos quando o sistema ainda é relativamente simples, tornando as correções mais diretas e menos disruptivas. Os sistemas podem ser testados em ambientes controlados e com usuários reais em escalas limitadas antes de implantações mais amplas, o que reduz significativamente o risco de danos em grande escala.

Além disso, o desenvolvimento iterativo facilita a adaptação às preocupações emergentes e ao feedback das partes interessadas, incluindo usuários finais, especialistas em ética e reguladores. Isso cria um processo de melhoria contínua que é muito mais robusto do que tentar prever todos os problemas possíveis antecipadamente – uma tarefa praticamente impossível em sistemas complexos como a IA avançada.

Como usuários comuns podem se proteger dos riscos atuais da IA enquanto ainda aproveitam seus benefícios?
Os usuários podem adotar várias estratégias para se proteger enquanto usufruem dos benefícios da IA. Primeiro, é essencial praticar a higiene digital básica: usar senhas fortes, autenticação de dois fatores e ser cauteloso com informações pessoais compartilhadas online, já que sistemas de IA podem usar esses dados de maneiras imprevistas.

Desenvolver alfabetização digital e pensamento crítico é crucial. Questione resultados gerados por IA, especialmente informações importantes ou controversas, e sempre verifique com múltiplas fontes confiáveis. Esteja atento às limitações conhecidas dos sistemas de IA que você utiliza – por exemplo, entenda que chatbots de IA podem “alucinar” informações falsas que parecem convincentes.

Por fim, faça escolhas conscientes sobre quais ferramentas de IA usar. Procure empresas que sejam transparentes sobre suas práticas de dados, que permitam opt-out de coleta de dados quando possível, e que tenham histórico de responder rapidamente a problemas éticos. Considere usar alternativas de código aberto quando disponíveis, pois oferecem maior transparência. Lembre-se que você tem direito de exigir que empresas excluam seus dados e de denunciar usos prejudiciais de IA às autoridades reguladoras relevantes.

Assista ao vídeo original

Este artigo foi baseado no vídeo abaixo. Se preferir, você pode assistir ao conteúdo original: