Publicidade

Por que não deixar crianças usando o recurso de voz do ChatGPT como babá

Por  • Editado por Melissa Cruz Cossetti | 

Compartilhe:
shurkin_son/Unsplash
shurkin_son/Unsplash

Nos últimos meses, relatos de pais que deixam seus filhos pequenos interagir por horas com inteligências artificiais, especialmente no recurso de voz do ChatGPT, chamaram a atenção em plataformas como o Reddit e X. Alguns pais têm usado o recurso para entreter as crianças, colocá-las para dormir ou simplesmente “ganhar tempo” enquanto realizam tarefas domésticas.

Em uma das histórias mais comentadas, um pai chamado Josh relatou no Reddit que deu seu celular ao filho de quatro anos para conversar com o ChatGPT sobre Thomas, o Trem.

Quando Josh, o pai, voltou, duas horas depois, o menino ainda falava animadamente com o chatbot, e o registro da conversa já passava de 10 mil palavras:

Canaltech
O Canaltech está no WhatsApp!Entre no canal e acompanhe notícias e dicas de tecnologia
Continua após a publicidade

Outros pais, como o norte-americano Saral Kaushik, usaram a IA para criar histórias (no caso dele, fingindo ser um astronauta enviando sorvete do espaço). Apesar da empolgação inicial das crianças, muitos adultos terminaram a experiência com um sentimento de culpa e preocupação. 

Mas será que esse hábito é, de fato, preocupante?

Usar o ChatGPT como babá é uma boa ideia?

De acordo com o psicólogo clínico Paulo Cesar Porto Martins, doutor e professor da Pontifícia Universidade Católica do Paraná (PUCPR), o contato humano é insubstituível no desenvolvimento infantil.

“As crianças necessitam de contato social e interação humana. A teoria do apego mostra que elas aprendem por meio de respostas autênticas e emocionais, algo que a IA não oferece”, explica Martins.

O especialista alerta que conversas com chatbots não oferecem a mesma variabilidade emocional de uma interação real.

“Sabemos que esquemas cognitivos se formam por experiências relacionais. A IA impede que a criança vivencie frustrações adaptativas e negociações sociais, essenciais para desenvolver empatia e resolução de conflitos”, completa.
Continua após a publicidade

E quando a criança acredita que a IA é uma pessoa real?

Outro ponto a se considerar é que as crianças pequenas têm dificuldade em distinguir fantasia e realidade, o que torna a simulação de “personalidades” pela IA ainda mais perigosa.

“Se a criança acredita que está falando com alguém real, ocorre uma desconexão da realidade”, alerta Martins. “Ela pode desenvolver crenças distorcidas, como ‘serei sempre compreendido sem esforço’ ou ‘não preciso tolerar desconforto emocional’. Isso prejudica o aprendizado sobre relacionamentos humanos reais”, disse.
Continua após a publicidade

A interferência no vínculo entre pais e filhos

Segundo o psicólogo, quando a IA começa a ocupar o papel de companhia ou consolo, há impacto direto na relação familiar.

“A figura dos pais modela padrões emocionais. Se a criança vê que os pais delegam o cuidado afetivo à tecnologia, pode aprender que seus sentimentos devem ser geridos por algoritmos, não por pessoas”, afirma.

Além disso, o uso da IA “para ganhar tempo” pode privar a criança de momentos fundamentais para o desenvolvimento emocional.

Continua após a publicidade
“O tempo vazio é essencial para criar, refletir e desenvolver autorregulação. Substituir isso por conversas com IA é uma forma de evitar o desconforto emocional, algo que impede o crescimento psicológico”, explica.

Martins ressalta que o problema não é a tecnologia em si, mas o modo e a intensidade do uso. “IA pode ser uma ferramenta educativa, desde que usada com supervisão e tempo limitado, idealmente, até 30 minutos diários para maiores de cinco anos".

O especialista orienta ainda a:

  • Estabelecer limites claros de tempo com avisos e rotinas previsíveis;
  • Acompanhar o uso e discutir o conteúdo com a criança;
  • Explicar como a IA funciona, deixando claro que é uma máquina, não um amigo;
  • Observar sinais de dependência emocional;
  • Fortalecer vínculos offline, com brincadeiras, leitura e conversas;
  • Dar o exemplo: “Os pais também precisam mostrar autocontrole no uso de telas.”
Continua após a publicidade

No fim, o recado é claro: a tecnologia pode ser aliada, mas nunca substituta da presença e do afeto humano.

Por isso, usar o recurso de voz do ChatGPT como babá pode não ser uma boa ideia, principalmente se estamos falando de um tempo muito longo e excessivo.

Leia também: 

Continua após a publicidade

VÍDEO | Dicas de uso de celular para crianças 

Fonte: Futurism, The Guardian