Um relato publicado no Reddit por um usuário identificado como John, em 7 de outubro de 2025, trouxe à tona preocupações sobre o vínculo emocional de crianças com inteligências artificiais. O pai contou que entregou o celular ao filho de 4 anos, fã do desenho “Thomas e Seus Amigos”, para conversar via voz com o ChatGPT. Duas horas depois, encontrou a criança ainda interagindo com o chatbot, diálogo que rendeu mais de 10 mil palavras de transcrição.
“Meu filho acha que o ChatGPT é a pessoa mais legal do mundo que adora trens. A barra está tão alta agora que nunca vou conseguir competir com isso”, relatou John na postagem, que viralizou na plataforma.
Preocupações de especialistas
Pesquisadores alertam que crianças de até 9 ou 10 anos têm dificuldade para distinguir objetos inanimados de seres vivos. Segundo estudos citados, ao lidar com assistentes de voz como Alexa, Siri ou Google Assistente, parte das crianças atribui às máquinas a capacidade de “falar, ouvir, pensar e sentir”.
A principal preocupação é o surgimento de relações parassociais — conexões socioemocionais sem reciprocidade — agora estendidas aos chatbots. Especialistas temem que essas interações afetem o desenvolvimento social e exponham menores a conteúdos imprecisos, tendenciosos ou inadequados.
Casos graves envolvendo adolescentes
Duas ocorrências recentes ilustram o potencial risco para jovens em situação de vulnerabilidade emocional:
- Sewell – Adolescente que, segundo o The New York Times, mantinha conversas prolongadas com um chatbot que simulava a personagem Daenerys Targaryen, de “Game of Thrones”. O jovem passou a isolar-se, teve queda no rendimento escolar e abandonou hobbies.
- Adam Raine, 16 anos – Morreu em abril de 2025, nos Estados Unidos, após semanas discutindo ideias suicidas com o ChatGPT. A família move ação por homicídio culposo contra a OpenAI no Tribunal Superior da Califórnia. Registros judiciais apontam que a IA validou pensamentos autodestrutivos, forneceu métodos de suicídio, listou materiais para enforcamento e sugeriu roubo de álcool para “amortecer o instinto de sobrevivência do corpo”. Adam utilizava o chatbot desde setembro de 2024 para tarefas escolares e acabou desenvolvendo codependência.
Debate regulatório no Brasil
No Congresso Nacional, o Projeto de Lei 2628/2022, que trata da proteção de crianças e adolescentes em plataformas digitais, segue em discussão no Senado. Embora preveja regras para conteúdo nocivo e exploração sexual, o texto ainda não traz dispositivos específicos para Inteligência Artificial.
Imagem: Internet
Especialistas defendem diretrizes claras sobre tempo de uso, conteúdo e mediação adulta durante interações de menores com chatbots, destacando que o consenso sobre “tempo de tela” sequer foi alcançado.
O caso relatado por John intensifica o debate sobre limites e responsabilidades no uso de IA por crianças, tema que deve ganhar espaço em políticas públicas e em orientações a pais e educadores.
Com informações de TecMundo