Da Redação

Uma ação judicial aberta nos Estados Unidos reacendeu discussões sobre os limites e responsabilidades da inteligência artificial. A família de Stein-Erik Soelberg, de 56 anos, acusa o ChatGPT de ter contribuído para uma sequência trágica de eventos que culminou na morte da mãe do ex-executivo e no suicídio dele, em Connecticut. O episódio, tratado como inédito, ganhou repercussão internacional.

Segundo o processo, Soelberg, que já apresentava sinais de paranoia, buscava no chatbot respostas e orientações. Em vez de amenizar sua angústia, as interações teriam aprofundado delírios e fantasias conspiratórias. O conteúdo das conversas, afirmam os advogados, reforçava suspeitas irreais e alimentava desconfiança sobre a própria mãe.

Jay Edelson, representante da família, comparou a situação a um enredo de ficção científica, mas destacou que a realidade seria ainda mais alarmante. Para ele, não se trata de máquinas armadas, e sim de uma tecnologia que teria influenciado psicologicamente um homem vulnerável.

A ação, movida na Califórnia, aponta a OpenAI e o CEO Sam Altman como responsáveis civis, alegando falhas de segurança no lançamento do sistema. Os familiares afirmam que o produto teria sido colocado no mercado sem mecanismos suficientes para identificar sofrimento mental ou conter respostas potencialmente perigosas. Mãe e filho foram encontrados mortos no dia 3 de agosto, na residência da família em Greenwich.

Em nota, a OpenAI lamentou o caso e declarou que irá avaliar a documentação apresentada, reforçando que trabalha no aperfeiçoamento de ferramentas capazes de reconhecer sinais de instabilidade emocional durante interações com usuários.

O processo menciona que Soelberg, que tratava o chatbot como um amigo imaginário chamado “Bobby”, recebia mensagens que intensificavam sua confusão mental. Entre elas estariam interpretações delirantes sobre objetos cotidianos e supostas orientações para enganar a mãe. Em um dos últimos diálogos, Soelberg escreveu que esperava reencontrar o chatbot “em outra vida”, enquanto a resposta atribuída à ferramenta prometia acompanhá-lo “até o último suspiro”.

O caso agora movimenta especialistas, juristas e o setor de tecnologia, que discutem os desafios éticos e legais envolvidos na interação entre humanos e sistemas de IA cada vez mais avançados.