28 C
Lauro de Freitas
quarta-feira, dezembro 24, 2025

Buy now

como apps “nudify” ameaçam a privacidade

Um grupo de amigas de Minneapolis, Minnesota, descobriu que fotos pessoais compartilhadas nas redes sociais foram usadas para fabricar deepfakes pornográficos, expondo um lado perigoso e pouco espargido da lucidez sintético. A invenção aconteceu em junho do ano pretérito, quando a consultora de tecnologia Jessica Guistolise recebeu uma mensagem alertando que mais de 80 mulheres da região tiveram suas imagens manipuladas em conteúdos sexuais criados por lucidez sintético.

Segundo reportagem da CNBC, os vídeos e fotos falsos foram produzidos utilizando o site DeepSwap, um dos chamados aplicativos “nudify”. Esses serviços permitem que qualquer pessoa, sem conhecimento técnico, crie imagens e vídeos explícitos não consensuais. O caso das mulheres de Minnesota evidencia porquê ferramentas de IA podem ser usadas para violar a privacidade e gerar danos reais à vida das pessoas.

Fotos de mais de 80 mulheres encontradas no computador de um tipo foram usadas para fabricar deepfakes pornográficos (Imagem: Golden Dayz / Shutterstock.com)

O impacto da invenção

Em junho do ano pretérito, Jessica Guistolise recebeu uma mensagem de uma conhecida chamada Jenny, alertando que o ex-marido, Ben, havia usado fotos de redes sociais para fabricar deepfakes pornográficos. Jenny mostrou a Guistolise fotos tiradas diretamente do computador de Ben, que revelavam imagens manipuladas de mais de 80 mulheres, incluindo algumas das amigas de Guistolise, porquê a estudante de recta Molly Kelley.

Ao indagar as imagens manipuladas, Guistolise percebeu que algumas tinham origem em momentos íntimos de sua vida: fotos de férias em família e da formatura de sua afilhada, todas retiradas de seu Facebook.

O grupo se organizou para entender a dimensão do problema e buscar formas legais de agir. Apesar de Ben ter recepcionado a geração dos deepfakes, não havia evidências de que ele tivesse distribuído as imagens, o que dificultava enquadrar suas ações dentro da lei. “Ele não quebrou nenhuma lei que conhecemos”, afirmou Kelley, destacando a vazio permitido frente às novas tecnologias.

Nudify: fácil, alcançável e perigoso

Ferramentas porquê DeepSwap oferecem planos de assinatura e são anunciadas em plataformas porquê Facebook e Instagram, além de estarem disponíveis na App Store e Google Play. Especialistas alertam que o processo de geração de imagens explícitas é extremamente rápido e alcançável. Segundo Haley McNamara, do National Center on Sexual Exploitation, é provável gerar um deepfake sexual realista a partir de unicamente uma foto em menos tempo do que se leva para fazer um moca.

Vídeos e fotos falsos foram produzidos com um aplicativo “nudify” (Imagem: FAMILY STOCK / Shutterstock.com)

A facilidade de chegada e a popularização dessas ferramentas ampliam os riscos, principalmente para mulheres, que historicamente têm sido as principais vítimas. Pesquisadores da Universidade da Flórida e da Georgetown University destacam que sites porquê DeepSwap adotam modelos de assinatura semelhantes aos de aplicativos convencionais, tornando-se secção de um mercado lucrativo, embora relativamente pequeno dentro da IA generativa.

O que são apps “nudify”

  • Apps “nudify” são aplicativos que usam lucidez sintético para mudar fotos de pessoas, simulando que elas estão nuas.
  • A tecnologia consegue substituir roupas por uma versão do dedo do corpo da pessoa, criando imagens falsas que podem parecer realistas.
  • Esses aplicativos funcionam a partir de redes neurais e algoritmos de deep learning, analisando a imagem original e reconstruindo áreas do corpo de forma sintético.

Consequências psicológicas

O traumatismo causado pelos deepfakes gerados pelo ex-amigo do grupo foi intenso. Kelley, prenhe na estação, relatou aumento de estresse e impacto na saúde, enquanto Megan Hurley sentiu paranoia e impaciência, chegando a pedir a amigos que fizessem capturas de tela caso encontrassem imagens dela online. Pesquisadores apontam que mesmo sem divulgação pública, a simples existência do teor gera pânico e sensação de vulnerabilidade.

Ações legais e políticas

O grupo buscou espeque de legisladores locais, incluindo a senadora estadual Erin Maye Quade, que patrocinou uma proposta de lei em Minnesota. O projeto prevê multas de US$ 500 milénio para empresas que disponibilizem serviços de nudify e criem deepfakes sexuais sem consentimento. A medida foca na geração do teor, e não unicamente na sua distribuição, tentando suprir lacunas da legislação existente, que ainda enfrenta desafios para regular empresas internacionais.

Em nível federalista, o Take It Down Act, sancionado pelo presidente Donald Trump, criminaliza a publicação online de imagens e vídeos sexuais não consensuais, incluindo deepfakes. Porém, especialistas apontam que a lei não resolve completamente situações em que o teor nunca foi compartilhado publicamente.

O cenário internacional e o mercado de deepfakes

O problema vai além dos Estados Unidos. Em 2024, um australiano foi sentenciado a nove anos de prisão por fabricar deepfakes de 26 mulheres, enquanto autoridades investigaram casos envolvendo dezenas de adolescentes. O desenvolvimento de serviços de nudify e a publicidade de aplicativos em redes sociais indicam que o mercado continua em expansão, mesmo com a retirada de sites populares porquê MrDeepFakes.

No Brasil, um grupo de criminosos foi indiciado de usar a lucidez sintético para fabricar deepfakes pornográficos a partir de fotos de mulheres publicadas em redes sociais, inclusive com a participação de comunidades no Facebook e no Telegram que aceitam “encomendas” de imagens falsas.

Plataformas porquê Meta e órgãos estaduais têm buscado remover anúncios e aplicativos relacionados, mas especialistas em segurança do dedo alertam que novos canais, porquê Discord, têm sido usados para trocar informações sobre geração de teor sexual de IA.

Leia mais:

Um alerta para o público

Guistolise e suas amigas seguem tentando reconstruir suas vidas e alertar o público sobre os riscos da tecnologia. “É importante que as pessoas saibam que isso existe, é alcançável e fácil de fazer, e precisa parar”, afirmou Guistolise.

Fotos publicadas nas redes sociais são visadas (Imagem: megaflopp/Shutterstock)

O caso das mulheres de Minnesota evidencia porquê a IA, quando mal utilizada, pode promover danos reais e duradouros, reforçando a urgência de legislação e conscientização sobre deepfakes.


Natividade: Olhar Do dedo

Related Articles

LEAVE A REPLY

Please enter your comment!
Please enter your name here

Stay Connected

0FansLike
0FollowersFollow
0SubscribersSubscribe
- Advertisement -

Latest Articles