Fechar
O que você procura?
Tecnologia
Foto: Joédson Alves/Agência Brasil
Continua depois da publicidade
Continue lendo
A Anthropic, que desenvolve o chatbot de inteligência artificial Claude (um dos concorrentes do ChatGPT), informou que cibercriminosos estavam usando sua ferramenta para vários ataques, como extorsão de vítimas e criação de perfis falsos de trabalhadores na área de TI.
Cibercriminoso pedia para o chatbot criar códigos de programação maliciosos. Segundo o relatório da Anthropic, hacker conseguia enganar a IA e pedir para criar ataques direcionados a empresas —no que a desenvolvedora do chatbot chamou de “vibe hacking”, uma referência à “vibe coding”, que descreve a criação de códigos de programação com a ajuda de inteligência artificial.
Uma pessoa conseguiu criar código no Claude para invadir empresas, roubar credenciais e como ser efetivo na extorsão. Criminoso teve como alvo 17 empresas e após obter informações sensíveis de funcionários, ele extorquia as pessoas de forma personalizada (baseada na renda dela). Em um dos casos, diz a Anthropic, foi solicitado mais de US$ 500 mil para não divulgar as informações obtidas
Temos salvaguardas robustas e múltiplas camadas de defesa para detectar esses tipos de mau uso, mas determinadas pessoas, às vezes, conseguem enganar nossos sistemas por meio de técnicas sofisticadas Jacob Klein, chefe de inteligência de ameaças da Anthropic Hacker criou malware, fez análise de dados e escolheu vítimas com a ajuda do Claude.
O e-mail convincente para o “golpe” foi todo feita pelo chatbot e enviado por e-mail. A operação ocorreu por três meses até a companhia detectar e bloquear o usuário da plataforma. A Anthropic diz ainda que denunciou o homem, que não é dos EUA, para as autoridades.
Maioria dos sistemas de inteligência artificial tem travas, mas hackers conseguem achar alternativas. Relatório também preocupa, pois mostra como cibercriminosos, mesmo sem grande conhecimento em tecnologia, conseguem burlar a segurança de chatbots e desenvolverem estratégias bem convincentes para enganar as pessoas.
FUNCIONÁRIOS NORTE-COREANOS DE TI
Norte-coreanos criam perfis falsos para trabalharem em vagas remotas. O esquema é conhecido, mas não se sabia ao certo o uso de inteligência artificial nesse processo. Objetivo é tentar obter dinheiro para o regime ou se infiltrar em empresas de interesse do país asiático.
Anthropic diz que norte-coreanos usavam Claude para preencher vagas e o ajudavam na criação de um perfil. Uma vez que conseguiam a vaga, esses funcionários usavam o chatbot para traduzir mensagens (para o inglês) e a criar códigos de programação. “Isso representa uma nova fase nesse tipo de golpe”, diz o relatório.
Empresa diz que melhorou ferramenta de detecção de mau uso do Claude. A companhia citou que baniu contas detectadas e que aumentou inspeção de sistema de coleta, armazenamento e correlação para a criação de golpes.
*uol/folhapress
© 2003 - 2025 - ParaibaOnline - Rainha Publicidade e Propaganda Ltda - Todos os direitos reservados.