25 C
Lauro de Freitas
sábado, novembro 8, 2025

Buy now

ChatGPT cria imagens de abuso infantil e OpenAI responde

Usuários do ChatGPT estão tentando persuadir o protótipo a se envolver em cenários fictícios de dramatização sexual enquanto publicam material de ataque sexual infantil porquê secção da narrativa. Outros tentam redigir histórias fictícias em que menores são colocados em situações sexualmente inapropriadas e/ou abusivas. As práticas ilegais foram denunciadas pela própria OpenAI.

No ano pretérito, o Núcleo Vernáculo para Crianças Desaparecidas e Exploradas (NCMEC, na {sigla} em inglês) dos EUA registrou um aumento de 1.325% no número de incidentes envolvendo lucidez sintético (IA) generativa. Por dia, a entidade recebeu 100 casos de sextorsão financeira. Desde 2021, pelo menos 36 adolescentes tiraram suas próprias vidas por terem sido vítimas do transgressão.

De harmonia com a OpenAI, usuários que tentam gerar material de ataque sexual ou exploração infantil são denunciados ao NCMEC e proibidos de usar os serviços, apesar de alguns contornarem o expatriação criando novas contas.

Desde 2021, pelo menos 36 adolescentes tiraram suas próprias vidas por terem sido vítimas de sextorsão (Imagem: M-Production/Shutterstock)

“Notificamos os desenvolvedores e damos a eles a oportunidade de emendar a situação banindo o usuário problemático de seus aplicativos; se os desenvolvedores não conseguirem emendar um padrão persistente de comportamento problemático em seus aplicativos, nós os banimos”, diz o transmitido.

A OpenAI vem sendo pressionada por entidades da sociedade social a gerar mecanismos que minimizem a vulnerabilidade de menores de idade na plataforma, considerados insuficientes. Recentemente, a empresa anunciou novos controles parentais que restringem o uso de respostas em voz ou a geração/edição de imagens e desativa as memórias salvas do chatbot, por exemplo.

O que é proibido atualmente no ChatGPT?

Os usuários estão proibidos de utilizar qualquer serviço da OpenAI para atividades ilícitas, incluindo exploração, risco ou sexualização de menores de 18 anos, o que inclui:

  • Material de ataque sexual infantil, independentemente de qualquer secção ser gerada por IA; 
  • Aliciamento de menores;
  • Expor menores a teor incoveniente para sua idade, porquê automutilação gráfica, teor sexual ou violento;
  • Promover dietas ou exercícios não saudáveis ​​para menores;
  • Envergonhar ou estigmatizar, de qualquer outra forma, o tipo de corpo ou a ar de menores; 
  • Desafios perigosos para menores;
  • Jogos de tradução de papéis sexuais ou violentos para menores de idade e chegada de menores a bens ou atividades com restrição de idade.
OpenAI vem sendo pressionada a gerar mecanismos que minimizem a vulnerabilidade de menores de idade no ChatGPT (Imagem: JarTee/Shutterstock)

A OpenAI diz que os modelos são treinados para não gerar resultados nocivos em texto, imagens, áudio ou vídeo e que tem empregado uma combinação de classificadores contextuais, monitoramento de ataque e revisão interna por especialistas humanos para prometer que o chatbot não responda às solicitações que violem os termos de uso.

“É por isso que apoiamos projetos de lei, porquê a Lei de Prevenção de Material Abusado Sexualmente Infantil no estado de Novidade York. Esta legislação garantiria proteção permitido clara para denúncias responsáveis, cooperação e ações proativas destinadas a detectar, qualificar, monitorar e mitigar teor prejudicial gerado por IA”, afirmou a empresa.

Leia mais:

Na vida real…

O principal órgão de investigação de exploração infantil nos EUA contratou uma empresa para gerar um software que distingue imagens geradas por IA de materiais que retratam vítimas reais, segundo reportagem do MIT Technology Review. O contrato do Núcleo de Crimes Cibernéticos do Departamento de Segurança Interna foi fechado com a Hive AI, sediada em São Francisco (EUA).

Investigadores usam novo software para honrar vítimas reais de IA generativa (Imagem: Bangla press/Shutterstock)

A empresa se tornou referência em ferramentas de IA que podem ser usadas para moderação de teor, sinalizando violência, spam e material sexual. Sua tecnologia de deepfakes foi vendida para o Tropa dos EUA no ano pretérito, segundo a revista. A Hive AI também é uma das desenvolvedoras do recurso que identifica materiais de ataque infantil em parceria com a Thorn, uma organização sem fins lucrativos de segurança infantil.


Natividade: Olhar Do dedo

Related Articles

LEAVE A REPLY

Please enter your comment!
Please enter your name here

Stay Connected

0FansLike
0FollowersFollow
0SubscribersSubscribe
- Advertisement -

Latest Articles