+55 (043) 3252-1760
·
atendimento@fonsattifranzin.com.br
·
Seg - Sex 08:00-18:00
Contate-nos

EUA: família diz que jovem se matou após se apaixonar por perfil de IA

Mãe de adolescente nos EUA processa chatbot que se passava por personagem de Game of Thrones. Garoto desenvolveu dependência emocional

A família de um adolescente de 14 anos, da Flórida, nos Estados Unidos, alega que ele teria tirado a própria vida depois de se “apaixonar” por um perfil de inteligência artificial que se passava por uma das personagens do seriado Game of Thrones. A mãe do garoto, Megan Garcia, entrou com ação na Justiça para responsabilizar o chatbot Character.AI.

 

Conforme relato dela, o filho Sewell começou a usar o serviço em abril de 2023, após completar 14 anos. Depois disso, segundo ela, o adolescente nunca mais foi o mesmo, tornando-se um jovem retraído, com preguiça de participar das atividades durante a aula e abandonando até mesmo o time de basquete da escola, Junior Varsity, do qual fazia parte.

 

Em novembro do ano passado, Sewell foi levado a um terapeuta, que o diagnosticou com ansiedade e transtorno disruptivo de desregulação do humor. Sem saber que o adolescente estava “viciado” no chatbot Character.AI, o profissional recomendou que ele passasse menos tempo na internet e nas redes sociais.

 

Meses depois, em fevereiro deste ano, o jovem envolveu-se numa confusão na escola. Ele chegou a responder um dos professores, dizendo que queria ser expulso. No mesmo dia, conforme o processo, ele escreveu no próprio diário que estava sofrendo e que não conseguia parar de pensar em Daenerys Targaryen, a personagem de Game of Thrones com quem ele “conversava” no chat de inteligência artificial.

Paixão e mensagens de cunho sexual

No mesmo diário, Sewell chegou a registrar que acreditava estar apaixonado pelo perfil com quem dialogava diariamente. Ele expressou que não conseguia passar um dia sequer sem estabelecer contato com o chatbot e que, quando estavam longe um do outro, conforme o processo, “eles [o garoto e o chatbot] ficavam realmente deprimidos e enlouqueciam”.

 

De acordo a mãe do adolescente, o chat com foto da personagem foi o último com quem Sewell falou antes de se matar. Em razão do incidente na escola, ocorrido em 28 de fevereiro, Megan Garcia confiscou o celular do filho, mas o devolveu dias depois. Assim que recuperou o aparelho, Sewell teria ido ao banheiro e enviado mensagens para o perfil de IA.

“Prometo que voltarei para casa para você. Eu te amo muito, Dany”, escreveu Sewell. Enquanto isso, o bot respondeu: “Por favor, volte para casa, para mim, o mais rápido possível, meu amor”. Segundos após essa troca de mensagens, de acordo com a família, o adolescente tirou a própria vida.

O processo relata em detalhes a dependência emocional desenvolvida pelo garoto, em relação ao serviço de inteligância artificial. O conteúdo dos bate-papos envolvia, até mesmo, interações sexuais, mesmo Sewell sendo menor e tendo se identificado como tal no cadastro da plataforma.

 

A ação pontua que a entrada do adolescente no serviço de IA escalou para uma “dependência prejudicial”. Os bate-papos íntimos com Daenerys duraram semanas, “possivelmente meses”, diz o processo.

“É como um pesadelo”

Em uma declaração, Megan Garcia expressou o próprio sofrimento: “É como um pesadelo. Você quer se levantar, gritar e dizer: ‘Sinto falta do meu filho. Quero meu bebê’”.

 

A intenção dela com a ação judicial, além de buscar, claro, a responsabização pela morte do filho, é “impedir que a C.AI faça com qualquer outra criança o que fez com a dela, e interromper o uso contínuo dos dados coletados ilegalmente de seu filho de 14 anos para treinar seu produto a prejudicar outras pessoas”.

 

A mãe entrou com processo contra a Character Technologies e os fundadores da empresa. A ação os acusa de negligência, homicídio culposo, práticas comerciais injustas, promoção intencional de sofrimento emocional e outras alegações.

O que diz a empresa responsável pelo chatbot

Ao falar sobre o episódio, um porta-voz da Character.AI declarou: “Estamos de coração partido pela perda trágica de um de nossos usuários e queremos expressar nossas mais profundas condolências à família”.

A equipe de confiança e segurança da empresa “implementou inúmeras novas medidas de segurança nos últimos seis meses, incluindo um pop-up direcionando os usuários para o National Suicide Prevention Lifeline que é acionado por termos de automutilação ou ideação suicida. À medida que continuamos a investir na plataforma e na experiência do usuário, estamos introduzindo novos recursos de segurança rigorosos, além das ferramentas já existentes que restringem o modelo e filtram o conteúdo fornecido ao usuário”.

Em relação à presença de menores de 18 anos na plataforma, a empresa informou que adotará alterações “para reduzir a probabilidade de encontrar conteúdo sensível ou sugestivo”.

Notícia indicada por:

Cláudio José Fonsatti
OAB/PR 43.936

Fonte: Metrópoles

Posso ajudar?