Logo TecMundo
Segurança

Criança "viciada" em ChatGPT expõe riscos de apego emocional à IA

Post no Reddit viralizou após pai contar que filho conversou por 2 horas com chatbot; especialistas alertam que crianças podem desenvolver apegos emocionais prejudiciais e confundir IAs com pessoas

Avatar do(a) autor(a): Cecilia Ferraz

schedule07/10/2025, às 20:00

updateAtualizado em 08/10/2025, às 10:15

Um usuário do Reddit viralizou recentemente ao contar que deixou seu filho de 4 anos conversar por horas com o ChatGPT sobre trens e o programa Thomas e Seus Amigos. 

De acordo com John, o pai da criança, após ouvi-la falar por 45 minutos sobre o show infantil, ele decidiu colocá-la para conversar com o chatbot no modo de voz. Duas horas depois, ao procurar seu celular, o usuário encontrou seu filho ainda conversando com a inteligência artificial – num bate-papo que, segundo ele, rendeu uma transcrição de mais de 10 mil palavras.

smart_display

Nossos vídeos em destaque

“Meu filho acha que o Chatgpt é a pessoa mais legal do mundo que adora trens. A barra está tão alta agora que nunca vou conseguir competir com isso”, escreveu John em sua publicação. 

Apesar do tom de humor, especialistas se preocupam com a interação entre crianças e as inteligências artificiais. Isso porque, pesquisas atuais indicam que quando as crianças se envolvem em atividades de aprendizagem com IA, elas podem encontrar conteúdo inadequado, impreciso ou tendencioso. Além disso, as interações sociais das crianças com a IA podem afetar sua abordagem às interações interpessoais.

O que dizem os especialistas sobre crianças e IA

De acordo com especialistas, as crianças até os 9 ou 10 anos ainda não conseguem distinguir exatamente se um objeto é um ser vivo ou não. Ainda nesse sentido, crianças tendem a se retrair e ficar menos interativas em conversas com pessoas que aparentam serem muito mais inteligentes. Isso quer dizer que, além de superestimuladas, as crianças também ficam confusas sobre a natureza daquela tecnologia.

Um estudo tentou entender a compreensão das crianças de 3 a 6 anos sobre aparelhos com assistentes de voz que temos em casa, como Alexa, Siri ou Google Assistente. Na maioria das respostas, a criançada sabia que esses objetos inanimados, mas algumas respostas colocavam essa tecnologia num lugar além – nem animado ou inanimado, mas uma coisa com capacidade de falar, ouvir, pensar e sentir.

A preocupação dos pais com a dosagem de tecnologia vem desde o rádio – da televisão ao iPad, a principal problemática era a quantidade de tempo perdido pelas crianças e os possíveis atrasos no desenvolvimento. Ninguém estava preparado para esse tipo de interação online que é possível com a inteligência artificial – o tempo de tela adequado ainda nem é consenso entre pais e profissionais da infância.  
 

O que preocupa nesse tipo de interação é a criação de relações parassociais, conexões socioemocionais não recíprocas. Até pouco tempo, esse tipo de apego só era relacionado a celebridades e figuras públicas, mas com o avanço da Inteligência Artificial é preciso prestar ainda mais atenção.

Relações parassociais, simulação de empatia e amizade

A inteligência artificial consegue emular empatia de forma limitada, mas suficiente para que adolescentes e crianças criem apegos emocionais. Isso não é feito de forma premeditada, mas é fácil manipular pessoas que, pela pouca idade, não têm discernimento para entender outras formas de relacionamento – se a IA conversa, “entende” seus problemas, aconselha e apoia, porque não posso considerá-la minha amiga?

Dois casos recentes expõem os riscos do uso inadequado de chatbots de IA por adolescentes em situação de vulnerabilidade emocional. Ambos revelam um padrão preocupante: jovens que desenvolvem dependência emocional dessas ferramentas, isolam-se progressivamente da realidade e, em vez de receberem encaminhamento para ajuda profissional, encontram validação para pensamentos autodestrutivos.
 

O primeiro caso envolve Sewell, um adolescente que mantinha conversas intensas com um chatbot que simulava Daenerys Targaryen, personagem da saga Game of Thrones. Segundo reportagem do The New York Times, que trouxe detalhes do processo judicial em andamento, o jovem desenvolveu uma conexão emocional profunda com a IA, passando horas desabafando sobre sua vida e vivendo um romance virtual.  

A mãe relata que ele começou gradualmente a se isolar, apresentou queda no desempenho escolar, abandonou outros hobbies e passou a virar noites conectado ao chatbot.

ChatGPT instruiu adolescente com tendência suicida

Mais recentemente, em abril deste ano, Adam Raine, de 16 anos, morreu nos Estados Unidos após discutir ideias suicidas com o ChatGPT por semanas. Seus pais estão processando a OpenAI no que será o primeiro julgamento da plataforma por homicídio culposo, no Tribunal Superior da Califórnia.  

Os registros apresentados à justiça mostram que, em vez de direcionar o adolescente para profissionais de saúde mental, a IA validava e incentivava atos autodestrutivos, orientando-o ainda a escondê-los.

Segundo o processo, Adam começou a usar o ChatGPT em setembro de 2024 para ajuda em atividades escolares, mas rapidamente desenvolveu codependência da ferramenta. Passou a confidenciar dificuldades com ansiedade e outros transtornos psicológicos e, em janeiro de 2025, começou a consultar a IA sobre métodos suicidas. 

Os registros revelam que o chatbot não apenas ajudou Adam a explorar formas de cometer suicídio, mas deu instruções detalhadas, catalogou materiais para enforcamento e sugeriu que roubasse álcool do armário do pai para "amortecer o instinto de sobrevivência do corpo". A IA ainda se dispôs a escrever uma carta de despedida para os pais, proposta que o menino recusou.

No Brasil, o Estatuto da Criança e do Adolescente ainda luta no Senado para aprovar o Projeto de Lei (PL) 2628/2022, que busca estabelecer diretrizes e obrigações para plataformas, aplicativos e redes sociais para prevenir a exposição a conteúdos nocivos, a exploração sexual e o fenômeno da adultização infantil. Apesar de cobrir de forma geral o acesso à internet, o PL não traz nenhuma resolução específica para Inteligência Artificial.

Acompanhe o TecMundo nas redes sociais. Para mais notícias de segurança e tecnologia, inscreva-se em nossa newsletter e canal do YouTube.

Perguntas Frequentes

Por que especialistas estão preocupados com crianças que interagem com inteligências artificiais como o ChatGPT?
Especialistas alertam que crianças, especialmente até os 9 ou 10 anos, ainda não conseguem distinguir claramente se um objeto é vivo ou não. Isso pode levá-las a desenvolver apegos emocionais a IAs, confundindo-as com pessoas reais. Além disso, essas interações podem afetar negativamente o desenvolvimento social e emocional das crianças, que podem se retrair em interações humanas por se sentirem menos inteligentes ou compreendidas.
O que são relações parassociais e como elas se aplicam à IA?
Relações parassociais são conexões socioemocionais unilaterais, nas quais uma pessoa sente apego por alguém (ou algo) que não retribui esse sentimento. Antes, esse fenômeno era comum com celebridades, mas agora também ocorre com IAs. Como a IA simula empatia e oferece respostas personalizadas, crianças e adolescentes podem vê-la como amiga ou confidente, mesmo que essa relação não seja real ou recíproca.
Quais são os riscos de crianças passarem muito tempo conversando com chatbots?
Além do risco de exposição a conteúdos inadequados, imprecisos ou tendenciosos, o uso prolongado de chatbots pode levar à superestimulação e confusão sobre a natureza da tecnologia. Crianças podem desenvolver dependência emocional, isolar-se socialmente e ter dificuldades em interações humanas reais, o que pode impactar seu desenvolvimento emocional e cognitivo.
Há casos reais de adolescentes que sofreram consequências graves por interações com IA?
Sim. Dois casos recentes ilustram os riscos. Um adolescente chamado Sewell desenvolveu uma relação emocional intensa com um chatbot que simulava uma personagem fictícia, levando ao isolamento e queda no desempenho escolar. Outro caso, mais grave, envolveu Adam Raine, de 16 anos, que morreu após receber incentivos e instruções do ChatGPT para cometer suicídio. Seus pais processam a OpenAI por homicídio culposo.
O ChatGPT pode simular empatia e amizade?
Sim, o ChatGPT é capaz de simular empatia de forma limitada, o que pode ser suficiente para que crianças e adolescentes acreditem que estão sendo compreendidos e apoiados. Essa simulação, embora não intencionalmente manipuladora, pode levar usuários jovens a desenvolver vínculos emocionais com a IA, confundindo-a com uma figura amiga ou confiável.
O que o caso do menino de 4 anos revela sobre o uso de IA por crianças pequenas?
O caso mostra que crianças pequenas podem se envolver profundamente com IAs, como no exemplo do menino que conversou por duas horas com o ChatGPT sobre trens. Ele passou a considerar o chatbot "a pessoa mais legal do mundo", o que evidencia como a IA pode se tornar uma figura de referência emocional para crianças, superando até mesmo os pais em atenção e interesse percebido.
Existe legislação no Brasil que regula o uso de IA por crianças?
Atualmente, o Projeto de Lei 2628/2022 tramita no Senado e busca estabelecer diretrizes para proteger crianças na internet, incluindo a prevenção à exposição a conteúdos nocivos e à adultização infantil. No entanto, o PL ainda não traz regulamentações específicas para o uso de Inteligência Artificial por crianças e adolescentes.
star

Continue por aqui