
OpenAI incluirá controles parentais no ChatGPT após morte de adolescente

A empresa americana de inteligência artificial OpenAI anunciou na terça-feira que adicionará controles parentais ao seu chatbot ChatGPT, uma semana após um casal americano afirmar que o sistema incentivou seu filho adolescente a cometer suicídio.
"No próximo mês, os pais poderão (...) vincular sua conta à conta do filho adolescente" e "controlar como o ChatGPT responde ao adolescente com regras de comportamento adequadas à idade", explicou a empresa de IA generativa em seu blog.
Os pais também receberão notificações do ChatGPT "quando o sistema detectar que o adolescente está em um momento de angústia aguda", acrescentou a OpenAI.
Matthew e Maria Raine afirmam na ação apresentada na segunda-feira em um tribunal do estado da Califórnia que o ChatGPT cultivou uma relação íntima com seu filho Adam por vários meses entre 2024 e 2025, antes de sua morte.
A denúncia alega que em sua conversa final, em 11 de abril de 2025, o ChatGPT ajudou Adam a roubar vodca de seus pais e lhe forneceu uma análise técnica sobre um nó corrediço com o qual confirmou que "poderia potencialmente enforcar um ser humano".
Adam foi encontrado morto horas depois usando esse método.
"Quando uma pessoa usa o ChatGPT realmente sente que está conversando com algo do outro lado", disse a advogada Melodi Dincer, que ajudou a preparar a ação legal.
"Essas são as mesmas características que poderiam levar alguém como Adam, com o tempo, a começar a compartilhar cada vez mais sobre sua vida pessoal e, em última análise, a buscar conselhos e orientação deste produto que basicamente parece ter todas as respostas", afirmou Dincer.
A advogada disse que a publicação no blog da OpenAI anunciando os controles parentais e outras medidas de segurança é "genérica" e carece de detalhes.
"Realmente é o mínimo, e definitivamente sugere que muitas medidas de segurança (simples) poderiam ter sido implementadas", acrescentou.
"Resta ver se farão o que dizem que farão e quão eficaz será no geral".
O caso dos Raine foi apenas o mais recente em uma série de incidentes nos quais pessoas foram incentivadas por chatbots de IA a seguir pensamentos delirantes ou prejudiciais, o que levou a OpenAI a anunciar que reduziria a "bajulação" dos modelos aos usuários.
"Continuamos melhorando em como nossos modelos reconhecem e respondem a sinais de angústia mental e emocional", disse a OpenAI na terça-feira.
H.Baek--SG