RIO DE JANEIRO, RJ (UOL/FOLHAPRESS) – A OpenAI anunciou, nesta terça-feira (2), um conjunto de medidas que busca proteger adolescentes no ChatGPT. O reforço na segurança do aplicativo acontece após a ferramenta ter supostamente encorajado um adolescente a cometer suicídio.

O caso veio à tona após uma denúncia feita pelos pais do jovem, de 16 anos, que vivem na Califórnia, Estados Unidos. Com os prints do diálogo entre o filho e o ChatGPT, a família entrou com uma ação judicial contra a plataforma.

Eles afirmam que a IA forneceu instruções suicidas detalhadas, incentivando o ato e falhando em interromper diálogos de risco. A situação reacendeu o debate sobre os riscos do uso de inteligência artificial por menores de idade e pessoas em situação de vulnerabilidade emocional.

A empresa divulgou um plano de 120 dias com alerta para sinais de angústia e redirecionamento de diálogos sensíveis para modelos mais seguros. Também será possível, a partir das próximas semanas, vincular contas de pais às de filhos adolescentes.

Em nota, a OpenAI diz que continua aprimorando seus modelos para identificar sinais de sofrimento mental e responder da forma mais responsável possível.