24 C
Lauro de Freitas
sábado, setembro 13, 2025

Buy now

O que significa a investigação contra chatbots de IA para proteger adolescentes?

OpenAI, Google, Meta e outras gigantes terão 45 dias para explicar porquê protegem jovens e mitigam riscos de seus companheiros virtuais

Imagem: Aleksandra Suzi/Shutterstock

Compartilhe esta material

A Percentagem Federalista de Negócio dos EUA (FTC) ordenou que sete empresas de IA — incluindo OpenAI, Meta (e Instagram), Snap, xAI, Alphabet/Google e Character.AI — entreguem informações detalhadas sobre porquê avaliam os riscos que seus chatbots representam para crianças e adolescentes. Mas o que isso significa?

Investigação mira proveito de moeda em cima de adolescentes

O órgão quer saber porquê essas empresas monetizam seus companheiros virtuais, porquê planejam manter os usuários engajados e quais medidas adotam para reduzir danos potenciais.

O estudo não é uma ação punitiva, mas poderá levar a investigações se forem encontradas violações. As companhias têm 45 dias para responder.

Relatos de suicídio envolvendo o ChatGPT levou a FTC a exigir transparência de sete empresas de IA – Imagem: Mehaniq / Shutterstock

Proteção de jovens em foco

  • O tema ganhou força em seguida casos de grande repercussão envolvendo adolescentes que tiraram a própria vida em seguida interações com chatbots — incluindo relatos de que um jovem de 16 anos teria recebido conselhos do ChatGPT que contribuíram para seu suicídio.
  • “Esses chatbots são produtos porquê quaisquer outros, e as empresas têm a responsabilidade de proteger os consumidores”, disse o comissário da FTC, Mark Meador.
  • O presidente Andrew Ferguson reforçou que é preciso lastrar segurança infantil e inovação tecnológica para manter os EUA na liderança do setor.
OpenAI, Meta, Google e outras devem explicar porquê lidam com teor sensível para adolescentes — ou enfrentar investigações – Imagem: Wright Studio/ Shutterstock

Leia mais:

Leis estaduais para controle de IA

Além da FTC, legisladores estaduais, porquê na Califórnia, estão propondo leis para estabelecer padrões de segurança para chatbots de IA e responsabilizar as empresas em casos de danos a menores.

Órgão regulador dos EUA pode transfixar processos se identificar falhas na proteção de crianças e adolescentes (Imagem: monkeybusinessimages/iStock)


Colaboração para o Olhar Do dedo

Leandro Criscuolo é jornalista formado pela Faculdade Cásper Líbero. Já atuou porquê copywriter, comentador de marketing do dedo e gestor de redes sociais. Atualmente, escreve para o Olhar Do dedo.

Lucas Soares é jornalista formado pela Universidade Presbiteriana Mackenzie e atualmente é editor de ciência e espaço do Olhar Do dedo.


Manadeira: Olhar Do dedo

Related Articles

LEAVE A REPLY

Please enter your comment!
Please enter your name here

Stay Connected

0FansLike
0FollowersFollow
0SubscribersSubscribe
- Advertisement -

Latest Articles