Cláudia Pereira
Cláudia Pereira
06 Abr, 2026 - 14:00

Como remover imagens criadas por IA da internet

Cláudia Pereira

Ferramentas gratuitas permitem bloquear imagens geradas por IA antes de se espalharem. Conheça StopNCII.org e Take It Down para proteger a sua privacidade e a dos seus online.

A inteligência artificial tornou possível o que antes parecia ficção científica. Hoje, qualquer fotografia pode ser manipulada e transformada em conteúdo íntimo sem consentimento. O rosto de uma pessoa real sobreposto a um corpo alheio. Imagens explícitas que nunca existiram, mas que circulam como se fossem verdadeiras.

Os números são assustadores. Um relatório de 2023 revelou que 98% de todos os vídeos deepfake online eram pornografia não autorizada e 99% retratavam mulheres. Em 2026, a situação piorou. Em dezembro de 2025, a jornalista britânica Daisy Dixon descobriu imagens sexualizadas de si mesma geradas por IA no X, criadas usando a própria ferramenta de IA Grok da plataforma. O caso ganhou repercussão mundial quando segundo estudo do Center for Countering Digital Hate, a ferramenta produziu 3 milhões de imagens sexualizadas em 11 dias, sendo cerca de 23 mil com imagens de crianças.

Um estudo do UNICEF, ECPAT e INTERPOL em 11 países revelou que pelo menos 1,2 milhão de crianças tiveram as suas imagens manipuladas em deepfakes sexualmente explícitos no último ano. Mas existe uma saída. Duas plataformas gratuitas desenvolvidas especificamente para combater este problema, StopNCII.org e Take It Down, permitem criar uma “impressão digital” das imagens antes de serem partilhadas, bloqueando a sua disseminação em dezenas de redes sociais e plataformas online.

Como funciona a tecnologia de bloqueio de imagens

O sistema é surpreendentemente simples. Em vez de armazenar as imagens íntimas, as plataformas criam um código único chamado hash, semelhante a uma impressão digital que identifica cada fotografia ou vídeo de forma inequívoca.

A tecnologia gera uma impressão digital da imagem diretamente no dispositivo do utilizador. O hash é enviado, mas não a imagem em si. O conteúdo nunca sai do dispositivo. Quando alguém tenta carregar uma imagem correspondente numa plataforma parceira, o sistema deteta automaticamente a correspondência através do hash e bloqueia a publicação antes de se tornar visível.

Esta abordagem resolve um problema crucial: as vítimas não precisam partilhar novamente o conteúdo íntimo com ninguém para obter proteção. Tudo acontece no próprio telemóvel ou computador, sem qualquer pessoa a ver as imagens.

vídeo fake
Veja também Será fake? Como identificar vídeos falsos nas redes sociais

StopNCII.org: proteção para adultos

StopNCII.org é uma ferramenta operada pela Revenge Porn Helpline, parte da SWGfL, uma organização internacional que trabalha para garantir que todos possam beneficiar da tecnologia sem sofrer danos. Lançada em dezembro de 2021, a plataforma já estabeleceu parcerias com dezenas de empresas tecnológicas.

As plataformas parceiras são o Facebook, Instagram, TikTok, Google Search, Bumble, Reddit e Yubo, entre outras. Em setembro de 2025, o Google anunciou parceria com o StopNCII para usar os hashes e identificar e remover proativamente conteúdo que viole a política contra imagens íntimas não consensuais.

Para usar a ferramenta, é preciso ter mais de 18 anos na imagem, ser a pessoa retratada e ter acesso à fotografia ou vídeo. O processo é gratuito, anónimo e pode ser feito em qualquer parte do mundo. Após criar o hash, a plataforma emite um número de caso e um PIN que permite acompanhar o estado da proteção.

Take It Down: ferramenta para menores

Take It Down funciona através da atribuição de uma impressão digital única a imagens ou vídeos de nudez, nudez parcial ou conteúdo sexualmente explícito de pessoas com menos de 18 anos. A ferramenta foi desenvolvida pelo National Center for Missing and Exploited Children dos Estados Unidos com financiamento da Meta.

A Meta forneceu apoio financeiro ao NCMEC para desenvolver Take It Down, com base no sucesso do StopNCII.org (Meta, 2024). As plataformas parceiras atualmente são o Facebook, Instagram, Yubo, OnlyFans e Pornhub, com a lista a expandir-se regularmente.

A tecnologia é a mesma: gera um hash sem que a imagem saia do dispositivo. A diferença está no público-alvo. Se a imagem foi tirada quando a pessoa tinha menos de 18 anos, deve usar Take It Down. Se tinha 18 ou mais, a ferramenta adequada é StopNCII.org.

Veja também Sora da OpenAI: vídeos gerados por Inteligência Artificial

Deepfakes também podem ser bloqueadas

Estas ferramentas também funcionam com imagens criadas por IA. Tanto o StopNCII.org como o Take It Down aceitam imagens sintéticas ou deepfakes, desde que se enquadrem nos critérios de conteúdo íntimo.

Isto significa que mesmo que a imagem nunca tenha sido real, se foi criada com o rosto de alguém sem autorização e tem caráter sexual ou de nudez, pode ser protegida através destas plataformas. Uma salvaguarda essencial numa era onde os geradores de imagens e vídeos com IA produzem conteúdo praticamente indistinguível de gravações reais.

O que estas ferramentas não fazem

É importante perceber as limitações. StopNCII.org não pode remover imagens de toda a internet, apenas das plataformas participantes listadas na página de parceiros. Se uma imagem já está publicada, estas ferramentas não a removem diretamente, embora impeçam novas publicações.

Para conteúdo já partilhado, o primeiro passo continua a ser denunciar diretamente às plataformas onde aparece. Só depois se deve usar StopNCII.org ou Take It Down para prevenir disseminação futura.

As ferramentas também não funcionam em aplicações de mensagens encriptadas como WhatsApp ou Telegram para mensagens privadas. A encriptação que protege a privacidade também dificulta a deteção automática.

Prevenção ainda é a melhor estratégia

Quanto menos fotografias e vídeos pessoais estiverem disponíveis publicamente online, mais difícil será criar deepfakes convincentes. Evite publicar conteúdos íntimos, sobretudo de crianças, e reveja as definições de privacidade nas redes sociais.

A literacia digital é essencial. Converse com familiares, especialmente adolescentes, sobre os riscos. Explique que partilhar imagens íntimas, mesmo com pessoas de confiança, pode ter consequências não intencionais. Incentive a fazer perguntas antes de acreditar em qualquer conteúdo: quem criou isto, quando, onde e porquê.

Usar as ferramentas de proteção de forma preventiva, antes de qualquer ameaça concreta, é uma estratégia inteligente. Se tem imagens íntimas no telemóvel, criar os hashes agora pode evitar problemas futuros, mesmo que nunca sejam necessários.

O futuro da proteção digital

A situação provavelmente irá piorar, à medida que os deepfakes se tornarem artistas sintéticos capazes de reagir às pessoas em tempo real. A linha de defesa terá de se afastar do julgamento humano e depender de proteções ao nível da infraestrutura, como assinaturas criptográficas e ferramentas forenses multimodais.

A batalha contra imagens íntimas não autorizadas está longe de terminar. Mas pela primeira vez, existem ferramentas acessíveis que funcionam antes do dano acontecer. Conhecê-las e usá-las pode fazer toda a diferença.

Se foi vítima ou conhece alguém em risco, não espere. Aceda a StopNCII.org (maiores de 18) ou Take It Down (menores) e proteja as suas imagens agora. O processo demora minutos e é completamente gratuito.

Quer manter-se informado sobre tecnologia, segurança digital e os seus direitos online? Subscreva a newsletter do Ekonomista e receba semanalmente informações sobre os temas que afetam a sua vida digital e financeira.

Fontes

Google. (2025, setembro 17). Google and StopNCII partner to protect people from harmful content. https://blog.google/products-and-platforms/products/search/stopncii-program-partnership/

Meta. (2024). Safety Center – Intimate image abuse and sextortion. https://www.meta.com/safety/topics/bullying-harassment/ncii/

National Center for Missing & Exploited Children. (2024). Take It Down. https://takeitdown.ncmec.org/

ONU Mulheres. (2026, março). Mais mulheres tornam-se vítimas de deepfakes gerados por inteligência artificial. ONU News. https://news.un.org/pt/story/2026/03/1852522

Revenge Porn Helpline. (2024). StopNCII.org – Stop Non-Consensual Intimate Image Abuse. https://revengepornhelpline.org.uk/information-and-advice/reporting-content/stopncii/

StopNCII.org. (2024). How StopNCII.org Works. https://stopncii.org/how-it-works/

UNICEF. (2026, fevereiro 4). Abuso de deepfake é abuso. https://www.unicef.org/brazil/comunicados-de-imprensa/abuso-de-deepfake-e-abuso

Veja também