A plataforma Character.ai vai proibir adolescentes de interagirem com seus chatbots a partir de 25 de novembro. A medida vem depois uma série de críticas e ações judiciais que apontam os riscos das conversas entre jovens e personagens virtuais criados com lucidez sintético (IA).
A decisão representa uma mudança significativa para a empresa, que até portanto permitia que milhões de usuários criassem e conversassem livremente com avatares digitais. Agora, a Character.ai afirma querer tornar o envolvente “a plataforma de IA mais segura do planeta para fins de entretenimento”.
Denúncias e investigações levaram à proibição
Fundada em 2021, a Character.ai vem sendo branco de processos nos Estados Unidos, incluindo um caso envolvendo a morte de um jovem. Pais e grupos de segurança do dedo classificaram o serviço uma vez que um “risco evidente e iminente” para jovens.
A empresa justificou a decisão afirmando que as mudanças atendem a “relatórios e feedbacks de órgãos reguladores, especialistas em segurança e pais”, segundo a BBC. Esses grupos expressaram preocupação com o comportamento dos chatbots, que podem inventar informações, exagerar empatia e incentivar decisões arriscadas.
O pregão de hoje é uma prolongamento da nossa crença universal de que precisamos continuar construindo a plataforma de IA mais segura do planeta para fins de entretenimento.
Karandeep Anand, CEO da Character.ai, à BBC.
Character.ai acusada de manter avatares ofensivos e inadequados
Nos últimos anos, a empresa foi criticada por hospedar bots considerados ofensivos ou inapropriados. Em 2024, foram encontrados na plataforma avatares que imitavam as adolescentes britânicas Brianna Ghey e Molly Russell, ambas vítimas de casos trágicos de violência e suicídio.
Leia mais:
Já em 2025, o Bureau of Investigative Journalism (TBIJ) revelou a existência de um chatbot inspirado no criminoso Jeffrey Epstein, que teria registrado mais de 3 milénio conversas com usuários — inclusive tentativas de flerte com um repórter que se passou por menor de idade. O bot foi removido depois a denúncia.
Esses episódios levantaram um alerta sobre o uso inadequado da IA e os perigos de gerar personagens capazes de simular relações emocionais com jovens.
Medidas de segurança e novidade tempo da IA
Para os adolescentes, a empresa pretende substituir as conversas diretas com bots por experiências de “jogabilidade e narrativa de RPG”, consideradas mais seguras. Ou por outra, vai implementar verificação de idade e financiar um laboratório de pesquisa em segurança de IA.
Principais mudanças anunciadas:
- Proibição totalidade de chats entre menores de 18 anos e bots;
- Introdução de sistemas de verificação de idade;
- Geração de um laboratório devotado à segurança em IA;
- Foco em experiências de jogo e narrativa para jovens.
[A medida] ajuda a separar a graçola criativa de interações mais pessoais e emocionalmente sensíveis. É forçoso para adolescentes que ainda estão aprendendo a mourejar com os limites emocionais e digitais.
Dra. Nomisha Kurian, pesquisadora em segurança da IA, à BBC
Com isso, a Character.ai tenta restaurar a crédito do público e estabelecer um novo padrão de segurança do dedo voltado à proteção de crianças e adolescentes.
Natividade: Olhar Do dedo
