Ekonomista
Ekonomista
23 Jan, 2026 - 11:00

Fraudes que imitam o ChatGPT dispararam 115% em 2025

Ekonomista

Foi detetado um aumento de 115% nas fraudes que se fazem passar por ChatGPT e outras ferramentas de IA. Pequenas empresas são as mais visadas. Saiba como se proteger.

A popularidade do ChatGPT transformou-se numa faca de dois gumes. Enquanto milhões de pessoas recorrem à ferramenta para tarefas do dia a dia, os criminosos digitais aproveitam o nome para lançar campanhas cada vez mais sofisticadas.

O relatório da Kaspersky de 2025 revela um crescimento alarmante de 115% nas ameaças que se fazem passar por plataformas de inteligência artificial como o ChatGPT e o DeepSeek. Os números não mentem. Nos primeiros quatro meses de 2025, foram detetados 177 ficheiros maliciosos únicos com o nome ChatGPT, um salto impressionante face aos 82 registados no mesmo período de 2024.

E não estamos a falar apenas de utilizadores individuais. Cerca de 8500 colaboradores de pequenas e médias empresas caíram nestas armadilhas, que prometem versões gratuitas, melhoradas ou exclusivas de ferramentas de IA.

Como funcionam estas fraudes?

Os atacantes criam websites falsos que imitam na perfeição a interface do ChatGPT, utilizando o logótipo oficial e um design quase idêntico ao original. Quando o utilizador clica no botão de download, em vez de instalar uma ferramenta de produtividade, está na verdade a dar as boas-vindas a um trojan, um adware ou até um programa de roubo de informações.

Um caso recente analisado pela Kaspersky mostra como os criminosos estão a usar a funcionalidade de partilha de conversas do próprio ChatGPT. Através de anúncios pagos no Google, redirecionam as vítimas para páginas no domínio oficial chatgpt.com que contêm guias de instalação falsos.

Qual o truque que usam? São conversas públicas com o ChatGPT, formatadas para parecerem instruções legítimas de um suposto navegador chamado Atlas. Basta um comando no Terminal do macOS para que o malware AMOS (Atomic macOS Stealer) se instale no computador, roubando palavras-passe, cookies e documentos. O mais preocupante é que a página está alojada num domínio de confiança, o que baixa a guarda de muitos utilizadores.

computador com chatGPT
Veja também ChatGPT começa a testar publicidade. O que está em causa

Pequenas empresas na linha da frente

As PME tornaram-se alvos preferenciais. Com equipas mais pequenas e menos recursos dedicados à cibersegurança, estas empresas são vistas como presas fáceis. Os dados da Kaspersky revelam que as aplicações mais imitadas continuam a ser o Zoom e o Microsoft Office, mas as ferramentas de IA estão rapidamente a ganhar terreno.

Quanto mais popular é uma ferramenta, maior a probabilidade de ser usada como isco. O DeepSeek já acumulou 83 ficheiros maliciosos detetados. Em contraste, plataformas menos conhecidas como o Perplexity não registaram qualquer tentativa de imitação, o que comprova que os atacantes escolhem as suas vítimas com base na popularidade.

Os criminosos não imitam ferramentas ao acaso. Selecionam aquelas que geram mais confiança e atenção, porque sabem que é onde podem camuflar melhor os ataques. – Vasily Kolesnikov, perito em segurança da Kaspersky.

Veja também ChatGPT e produtividade: 7 formas simples de usar IA no dia a dia

A IA como arma de dois gumes

As mesmas ferramentas que prometem revolucionar a produtividade estão a ser usadas para aperfeiçoar os golpes. Grupos de hackers, como o UTA0388, estão a recorrer ao ChatGPT para gerar e-mails de phishing impecáveis em múltiplas línguas, criar malware e desenvolver backdoors cada vez mais sofisticados.

A OpenAI confirmou em outubro de 2025 que baniu permanentemente contas ligadas a este grupo. As contas eram usadas para gerar código de comando e controlo encriptado, scripts para evasão de antivírus e templates de phishing polidos em inglês, chinês e japonês.

Um relatório da SlashNext revela um aumento de 341% nas ameaças de phishing na primeira metade de 2024, incluindo ataques por e-mail, códigos QR e mensagens multicanal. Com a IA generativa, os atacantes conseguem refinar as mensagens rapidamente, tornando-as quase indetetáveis pelos filtros tradicionais.

Violações de dados agravam o problema

Como se não bastasse, a OpenAI enfrentou uma violação de dados em novembro de 2025. Um fornecedor terceiro, a Mixpanel, foi alvo de um ataque que expôs informações de utilizadores da API, incluindo nomes, endereços de e-mail, identificadores de organizações e dados técnicos dos navegadores.

Embora a OpenAI garanta que os próprios sistemas não foram comprometidos e que conversas, palavras-passe ou chaves de API permaneceram seguras, este tipo de metadados é ouro nas mãos dos criminosos. Com nomes, e-mails e localização aproximada, é possível lançar campanhas de phishing extremamente credíveis e ataques de engenharia social bem direcionados. O episódio reforça um ponto fundamental: mesmo que uma plataforma seja segura, os parceiros podem ser o elo fraco da cadeia.

Veja também ChatGPT Atlas promete rivalizar com o Chrome e transformar a navegação online

Como se proteger destas fraudes

A boa notícia é que há medidas concretas para reduzir o risco. A primeira e mais importante é aceder sempre ao ChatGPT e outras ferramentas através dos websites oficiais. Nunca confie em links recebidos por e-mail, mensagens ou anúncios, mesmo que pareçam legítimos.

Desconfie de ofertas que parecem boas demais. Subscrições gratuitas de serviços pagos, versões exclusivas ou downloads de aplicações que não estão nas lojas oficiais são sinais de alarme. Verifique sempre a ortografia dos URLs e procure por pequenos erros que possam indicar um domínio falso.

Para as empresas, a formação dos colaboradores é essencial. Adotar soluções de segurança especializadas que ofereçam visibilidade sobre os serviços na cloud é outro passo crítico. Manter os programas antivírus atualizados e usar autenticação de dois fatores em todas as contas são medidas básicas mas eficazes. E se receber um e-mail suspeito, mesmo que pareça vir da OpenAI, pense duas vezes antes de clicar. A empresa nunca pede palavras-passe, chaves de API ou códigos de verificação por e-mail.

Proteja-se com informação de qualidade

Num mundo onde a inteligência artificial se torna cada vez mais presente no nosso quotidiano, o cuidado redobrado deixou de ser opcional. Cada clique e cada download merece um segundo de reflexão antes de agir. A tecnologia avança a uma velocidade impressionante, e manter-se informado é a melhor defesa contra as ameaças que surgem todos os dias.

Para receber as últimas notícias sobre cibersegurança, tendências de IA e alertas sobre novas fraudes digitais, subscreva a newsletter do Ekonomista. Navegue no mundo digital com segurança, não deixe que os criminosos fiquem um passo à frente.

Veja também