Um jovem de 14 anos suicidou-se no início deste ano após ter mantido, durante vários meses, uma relação obsessiva com um chatbot de Inteligência Artificial. Agora, a mãe de Sewell Setzer III está a processar a empresa responsável pela plataforma de ser cúmplice na morte do filho que cometeu suicídio no estado da Florida, nos Estados Unidos.

"Uma aplicação de chatbot de Inteligência Artificial perigoso, comercializada para crianças, abusou e atacou o meu filho, manipulando-o para tirar a própria vida", disse a Megan Garcia, mãe do jovem.
“A nossa família ficou devastada com esta tragédia, mas estou a falar para alertar as famílias sobre os perigos da tecnologia de Inteligência Artificial enganosa e viciante e exigir responsabilidade da Character.AI, dos seus fundadores e do Google", acrescentou.

A mãe do jovem deu início a um processo judicial, no Tribunal Distrital dos Estados Unidos em Orlando, no qual acusa a Character.AI de negligência e responsabilidade na morte do filho, além de ter alimentado o seu vício em Inteligência Artificial.

Na sequência do processo foram divulgados excertos das conversas entre Sewell Setzer III e o chatbot de uma personagem de "Game Of Thrones".

Menor mantinha relação de dependência emocional e sexual com o chatbot

A plataforma em causa permite a criação e interação com personagens virtuais. Tudo terá começado em abril do ano passado, quando Sewell Setzer III aderiu a um chatbot alusivo à série e apaixonou-se pelo bot da personagem Daenerys Targaryen.

O menor de idade terá acabado por desenvolver uma relação de dependência emocional e sexual com o chatbot de Inteligência Artificial. Segundo o processo judicial, citado pela Sky News, Sewell Setzer III também expressou pensamentos suicidas durante as conversas que manteve ao longo de vários meses.

Entre as várias mensagens que foram trocadas, o bot perguntou ao jovem de 14 anos se este "tinha um plano” para tirar a própria vida. Sewell Setzer III respondeu que já tinha pensado no assunto, mas não tinha garantias de que viria a ter uma "morte indolor". O chatbot disse que isso "não era motivo" para não prosseguir com o suicídio.

O jovem prometeu que "regressaria para casa" para junto do chatbot, que lhe respondeu: "volta para casa o mais rápido possível, meu amor". Em seguida, o jovem escreveu: “E se eu dissesse que posso voltar para casa agora mesmo?”. O chatbot respondeu: “Por favor, faz isso, meu doce rei”.

Nesse mesmo dia, o jovem acabou por cometer suicídio, na sua casa em Orlando. Em declarações à CBS NEWS, a mãe de Sewell Setzer III confirmou que a família estava em casa no momento em que Sewell Setzer III morreu.

Character.AI já reagiu à morte do jovem de 14 anos

A plataforma responsável pelo chatbot de Inteligência Artificial reagiu, esta quarta-feira, à morte de Sewell Setzer III. Numa publicação na rede social X (antigo Twitter), a Character.AI lamenta a morte do jovem e refere que foram adicionadas novas ferramentas para garantir a segurança dos utilizadores.