Por que não deixar crianças usando o recurso de voz do ChatGPT como babá
Por Nathan Vieira • Editado por Melissa Cruz Cossetti |

Nos últimos meses, relatos de pais que deixam seus filhos pequenos interagir por horas com inteligências artificiais, especialmente no recurso de voz do ChatGPT, chamaram a atenção em plataformas como o Reddit e X. Alguns pais têm usado o recurso para entreter as crianças, colocá-las para dormir ou simplesmente “ganhar tempo” enquanto realizam tarefas domésticas.
- Por que você não deveria enviar as fotos dos seus filhos para aplicativos de IA
- IA sinaliza conteúdo prejudicial a crianças no TikTok, Insta e YouTube para pais
Em uma das histórias mais comentadas, um pai chamado Josh relatou no Reddit que deu seu celular ao filho de quatro anos para conversar com o ChatGPT sobre Thomas, o Trem.
Quando Josh, o pai, voltou, duas horas depois, o menino ainda falava animadamente com o chatbot, e o registro da conversa já passava de 10 mil palavras:
Outros pais, como o norte-americano Saral Kaushik, usaram a IA para criar histórias (no caso dele, fingindo ser um astronauta enviando sorvete do espaço). Apesar da empolgação inicial das crianças, muitos adultos terminaram a experiência com um sentimento de culpa e preocupação.
Mas será que esse hábito é, de fato, preocupante?
Usar o ChatGPT como babá é uma boa ideia?
De acordo com o psicólogo clínico Paulo Cesar Porto Martins, doutor e professor da Pontifícia Universidade Católica do Paraná (PUCPR), o contato humano é insubstituível no desenvolvimento infantil.
“As crianças necessitam de contato social e interação humana. A teoria do apego mostra que elas aprendem por meio de respostas autênticas e emocionais, algo que a IA não oferece”, explica Martins.
O especialista alerta que conversas com chatbots não oferecem a mesma variabilidade emocional de uma interação real.
“Sabemos que esquemas cognitivos se formam por experiências relacionais. A IA impede que a criança vivencie frustrações adaptativas e negociações sociais, essenciais para desenvolver empatia e resolução de conflitos”, completa.
E quando a criança acredita que a IA é uma pessoa real?
Outro ponto a se considerar é que as crianças pequenas têm dificuldade em distinguir fantasia e realidade, o que torna a simulação de “personalidades” pela IA ainda mais perigosa.
“Se a criança acredita que está falando com alguém real, ocorre uma desconexão da realidade”, alerta Martins. “Ela pode desenvolver crenças distorcidas, como ‘serei sempre compreendido sem esforço’ ou ‘não preciso tolerar desconforto emocional’. Isso prejudica o aprendizado sobre relacionamentos humanos reais”, disse.
A interferência no vínculo entre pais e filhos
Segundo o psicólogo, quando a IA começa a ocupar o papel de companhia ou consolo, há impacto direto na relação familiar.
“A figura dos pais modela padrões emocionais. Se a criança vê que os pais delegam o cuidado afetivo à tecnologia, pode aprender que seus sentimentos devem ser geridos por algoritmos, não por pessoas”, afirma.
Além disso, o uso da IA “para ganhar tempo” pode privar a criança de momentos fundamentais para o desenvolvimento emocional.
“O tempo vazio é essencial para criar, refletir e desenvolver autorregulação. Substituir isso por conversas com IA é uma forma de evitar o desconforto emocional, algo que impede o crescimento psicológico”, explica.
Martins ressalta que o problema não é a tecnologia em si, mas o modo e a intensidade do uso. “IA pode ser uma ferramenta educativa, desde que usada com supervisão e tempo limitado, idealmente, até 30 minutos diários para maiores de cinco anos".
O especialista orienta ainda a:
- Estabelecer limites claros de tempo com avisos e rotinas previsíveis;
- Acompanhar o uso e discutir o conteúdo com a criança;
- Explicar como a IA funciona, deixando claro que é uma máquina, não um amigo;
- Observar sinais de dependência emocional;
- Fortalecer vínculos offline, com brincadeiras, leitura e conversas;
- Dar o exemplo: “Os pais também precisam mostrar autocontrole no uso de telas.”
No fim, o recado é claro: a tecnologia pode ser aliada, mas nunca substituta da presença e do afeto humano.
Por isso, usar o recurso de voz do ChatGPT como babá pode não ser uma boa ideia, principalmente se estamos falando de um tempo muito longo e excessivo.
Leia também:
- Diretrizes da Meta permitiam que a IA envolvesse criança em "conversas sensuais"
- Os estudantes americanos que dizem ter um “relacionamento romântico” com IAs
VÍDEO | Dicas de uso de celular para crianças
Fonte: Futurism, The Guardian