ChatGPT na DarkWeb

O recente surgimento de contas do ChatGPT sendo vendidas na DarkWeb transformou-se em uma preocupante tendência de segurança cibernética, levando especialistas do setor a reavaliar as medidas de proteção de dados e a integridade das informações digitais. A ferramenta de inteligência artificial, reconhecida por sua habilidade em processar e gerar linguagem natural, agora enfrenta o desafio da malícia humana em ambientes virtuais sombrios. As implicações dessa vulnerabilidade são vastas e complexas.

De acordo com a empresa de ciberinteligência Group-IB, baseada em Singapura, mais de 101.000 contas do ChatGPT foram vendidas na DarkWeb. Uma análise revelou que, só em maio de 2023, foram postadas 26.800 credenciais da ferramenta. Essa ocorrência não está atrelada a uma falha centralizada de segurança na OpenAI, desenvolvedora do ChatGPT, mas sim à presença de malwares do tipo “information stealer” em dispositivos ao redor do mundo. Esse cenário é agravado pelo fato de o ChatGPT ter se integrado aos princípios operacionais de diversas empresas, configurando uma espécie de “candidato legado” no mercado de IA, dado seu tempo de exposição e adesão de usuários. Com isso, a detecção de atividades suspeitas torna-se um desafio, pois o uso intensivo da IA já é parte da rotina de muitas organizações, o que pode mascarar ações mal-intencionadas. No entanto, o perigo não se limita a contas de negócios.


As credenciais individuais de usuários também estão em risco, multiplicando o perigo a cada dia em que o malware permanece ativo e sem remediação. A questão que se impõe é: como indivíduos e empresas podem descobrir se suas contas do ChatGPT foram comprometidas e, mais importante, como podem reagir a tal ameaça? A Group-IB forneceu um desdobramento geográfico das contas comprometidas, indicando uma prevalência na região da Ásia-Pacífico, com mais de 40.000 contas afetadas. Na Europa, o número ultrapassa 16.000, enquanto na América do Norte, fica próximo de 5.000. A mitigação desse tipo de exposição é desafiadora, pois uma vez que os dados são vendidos na DarkWeb, passam a ser controlados por quem oferecer o maior lance.

Além disso, recentemente surgiram ferramentas como WormGPT, Variantes sem restrições éticas do ChatGPT, treinadas com dados de fontes focadas em ciberataques e destinadas a atividades maliciosas como ataques BEC (Business Email Compromise), malware e phishing. Isso representa um avanço significativo para cibercriminosos e um desafio crescente para a segurança cibernética. A crescente presença do ChatGPT e seus derivados na DarkWeb acende um alerta para a importância de práticas robustas de higiene cibernética e a necessidade de ferramentas de IA capazes de detectar, prever e bloquear ameaças emergentes. A luta contra as ameaças de IA requer proteções de IA, e a conscientização sobre o uso mal-intencionado das tecnologias de inteligência artificial é fundamental para manter a segurança digital.

Conteúdo gerado pelo GPT-4

“ChatGPT na DarWeb”