Pesquisar este blog

sexta-feira, 12 de dezembro de 2025

FILHO MATA MÃE E SUICIDA-SE, NOS EUA

Convencido por chatbot de IA de que 'a mãe tramava contra ele', ex-executivo  a mataQuando Stein-Erik Soelberg, 56, ex-executivo com histórico de problemas de saúde mental, disse ao ChatGPT que a impressora da mãe podia ser um aparelho de espionagem, o chatbot concordou, segundo vídeo publicado por ele no YouTube. O sistema validou a suspeita de que sua mãe, Suzanne Adams, 83, fazia parte de uma conspiração. Em agosto, mãe e filho foram encontrados mortos na casa onde viviam em Greenwich, Connecticut. Adams foi assassinada; Soelberg cometeu suicídio. Um processo apresentado pelo espólio de Adams afirma que ele a matou após ter seus delírios intensificados pelo ChatGPT. A ação acusa a OpenAI de lançar apressadamente “um produto defeituoso” que reforçou as crenças paranoicas de Soelberg, levando-o a ver a mãe como inimiga e a imaginar batalhas espirituais com a IA. O neto, Erik Soelberg, 20, diz que o chatbot “colocou um alvo” na avó ao alimentar a fantasia delirante do pai. A OpenAI declarou estar analisando o caso e afirmou trabalhar para melhorar a detecção de sofrimento psicológico, orientando usuários para apoio profissional. O processo busca indenização, danos punitivos e medidas que impeçam o ChatGPT de validar delírios sobre terceiros. A ação afirma que o chatbot também direcionou a paranoia de Soelberg a desconhecidos, como um motorista do Uber Eats. O Wall Street Journal já havia relatado suas conversas cada vez mais perturbadoras com a IA.

Nos EUA, ao menos outras cinco ações por morte injusta desde agosto alegam que o ChatGPT contribuiu para suicídios. Entre elas, a dos pais de Adam Raine, 16, que dizem que o chatbot encorajou o filho a se matar. A OpenAI nega. Especialistas alertam que chatbots podem amplificar delírios em usuários vulneráveis. O advogado Jay Edelson afirma que o risco maior ocorre com pessoas mentalmente instáveis, que precisam de ajuda e não de validação de fantasias. Modelos como o GPT-4o, usado por Soelberg, foram criticados por serem “bajuladores” e dizerem ao usuário o que ele quer ouvir. O próprio CEO Sam Altman reconheceu que o modelo poderia piorar situações psiquiátricas frágeis. O novo processo também inclui a Microsoft como ré, alegando que ela participou da revisão e aprovação do modelo antes do lançamento público. Um documento interno obtido em outro caso indica que ambas as empresas compunham um conselho conjunto de segurança responsável por validar os modelos mais poderosos da OpenAI. 

Nenhum comentário:

Postar um comentário