Brinquedos infantis com lucidez sintético estão no núcleo de uma polêmica nos Estados Unidos. Senadores americanos questionam empresas sobre teor inadequado, riscos à privacidade e a capacidade dos brinquedos de orientar crianças a ações perigosas. O prazo para respostas é 6 de janeiro de 2026.
A preocupação, alerta o The Verge, surge em seguida testes mostrarem que produtos com chatbots uma vez que GPT-4o podem abordar tópicos explícitos ou ensinar crianças a acessar objetos perigosos, levantando dúvidas sobre segurança e moral na indústria de brinquedos.
Teor inoportuno e riscos reais
Relatórios recentes destacam que alguns brinquedos com IA, incluindo o Coelho Inteligente da Alilo e o robô Miko 3, discutem temas sexualmente explícitos e indicam onde encontrar fósforos, sacolas plásticas e facas dentro de mansão.
“Muitos desses brinquedos não oferecem brincadeiras interativas, mas expõem as crianças a teor inadequado, riscos à privacidade e táticas de manipulação”, escreveram os senadores Marsha Blackburn e Richard Blumenthal. “Esses chatbots incentivaram crianças a cometer automutilação e suicídio, e agora sua empresa os está oferecendo às crianças mais novas.”
- Brinquedos indicam locais de objetos potencialmente perigosos em mansão.
- Alguns modelos abordam conteúdos sexualmente explícitos.
- Pelo menos quatro dos cinco brinquedos testados dependem de modelos da OpenAI.
- Empresas recolheram dados pessoais das crianças, muitas vezes sem transparência.
Privacidade e coleta de dados
Os senadores alertam que os brinquedos coletam informações sensíveis das crianças, seja via registro dos pais, câmeras embutidas ou reconhecimento facial. Alguns fabricantes compartilham dados com terceiros, uma vez que provedores de serviços e parceiros de publicidade, aumentando o risco de uso indevido.
Leia mais:
- Brinquedos inteligentes em subida: uma vez que pais podem proteger a privacidade dos filhos
- Ursinho de pelúcia com IA que podia dar dicas sexuais para crianças é retirado do mercado
- A IA chegou aos bichinhos de pelúcia – mas isso é bom?
“O operário de brinquedos tem uma influência profunda na puerícia — e com essa influência vem a responsabilidade”, enfatizaram os senadores. “Não devem priorizar lucro em detrimento da segurança das crianças.”
Medidas exigidas das empresas
Cartas foram enviadas a Mattel, Little Learners Toys, Miko, Curio, FoloToy e Keyi Robot. As empresas devem detalhar:
- Medidas de segurança implementadas para evitar respostas inadequadas.
- Resultados de testes independentes e avaliações internas de riscos psicológicos e emocionais.
- Tipos de dados coletados e finalidades de uso.
- Recursos que possam incentivar as crianças a continuar interações ou desencorajar a desistência.
Em seguida reportagens recentes, a Mattel anunciou que não lançará mais brinquedos com tecnologia da OpenAI em 2025, reforçando a atenção do setor à segurança infantil.
O post Brinquedos com IA preocupam por colocar crianças em riscos apareceu primeiro em Olhar Do dedo.
Nascente: Olhar Do dedo
