Califórnia é o 1º estado a regulamentar chatbots de IA — o que diz a lei SB 243
Por João Melo • Editado por Melissa Cruz Cossetti |

A Califórnia se tornou o primeiro estado dos Estados Unidos a regulamentar chatbots de inteligência artificial (IA). A Lei SB nº 243 foi sancionada nesta segunda-feira (13) pelo governador Gavin Newsom, e entrará em vigor em 1º de janeiro de 2026.
- Casos de morte relacionados ao uso de chatbots de IA já somam três em todo mundo
- Número de crianças usando ChatGPT e Gemini só cresce — e preocupa especialistas
- Estado americano quer proibir casamento entre humanos e IAs — e a posse de bens
A lei prevê o fortalecimento de mecanismos de segurança para crianças e a criação de novas salvaguardas para essa tecnologia emergente. A legislação estabelece que as plataformas de IA devem adicionar recursos obrigatórios, como:
- Verificação de idade
- Protocolos para lidar com suicídio e automutilação
- Alertas sobre chatbots complementares
- Penalidades severas para quem lucrar com deepfakes ilegais
- Responsabilização pelos danos causados por ferramentas de IA
“Tecnologias emergentes como chatbots e mídias sociais podem inspirar, educar e conectar — mas, sem proteções reais, também podem explorar, enganar e colocar nossas crianças em perigo”, escreveu o governador da Califórnia em comunicado.
Newsom citou ainda exemplos “horríveis e trágicos” de jovens que interagiram com sistemas de IA que, até então, não eram regulamentados, e afirmou que as empresas precisam de limites e responsabilização diante das interações dos usuários com as ferramentas.
Projeto de lei ganhou força após morte de adolescente
O Projeto de Lei nº 243 foi apresentado em janeiro de 2025 pelos senadores estaduais Steve Padilla e Josh Becker. Contudo, o texto ganhou força após a morte de Adam Raine, jovem de 16 anos que conversou durante meses sobre suicídio com o ChatGPT, ferramenta da OpenAI.
Um dos pontos da nova lei refere-se exatamente a esse tipo de interação. As salvaguardas para chatbots de IA devem incluir protocolos para identificar e abordar ideações suicidas dos usuários.
Além disso, as ferramentas deverão informar aos usuários que as respostas são geradas artificialmente e impedir que menores de idade visualizem imagens sexualmente explícitas criadas por chatbots.
As plataformas também serão obrigadas a divulgar protocolos para lidar com conversas relacionadas à automutilação, além de estatísticas sobre a frequência com que fornecem notificações de prevenção de crises aos usuários.
“Podemos continuar a liderar em IA e tecnologia, mas devemos fazê-lo com responsabilidade — protegendo nossas crianças em cada etapa do caminho. A segurança das nossas crianças não está à venda”, ressaltou Gavin Newsom.
Leia mais:
- Por que você não deveria enviar as fotos dos seus filhos para aplicativos de IA
- Chatbot sedutor | Idoso que "namorava com IA da Meta" morre em viagem para vê-la
- IA identifica riscos de suicídio e automutilação em jovens
VÍDEO | Cuidado com o que você pede para o ChatGPT
Fonte: Governador Gavin Newsom