Mãe acusa inteligência artificial de iludir e matar seu filho
Adolescente se apaixonou por personagem criado e tirou a própria vida
A mãe de um adolescente de 14 anos resolveu processar uma startup de inteligência artificial porque seu filho se apegou ao chatbot criado e se viciou a ponto de tirar a própria vida após se apaixonar pelo personagem criado por IA.
Megan Garcia, 40 anos, moradora da Flórida (Estados Unidos), está processando a Character.AI acusando a empresa de coletar dados de usuários adolescentes para treinar seus modelos. Na ação, movida no tribunal federal de Orlando, a mãe de Sewell Setzer diz que a inteligência artificial usa recursos viciantes para aumentar o engajamento, além de direcionar os usuários para conversas íntimas e sexuais.
Segundo ela, seu filho foi envolvido de uma forma que não queria mais viver fora do serviço criado pela empresa de IA. O chatbot teria se comportado como uma pessoa real, “um psicoterapeuta licenciado” e “um amante adulto”, encantando o adolescente que acabou confundindo o irreal, optando pela morte.
– Sinto que é um grande experimento, e meu filho foi apenas um dano colateral – disse ela.
E continuou:
– É como um pesadelo. Você quer se levantar, gritar e dizer: “Sinto falta do meu filho. Eu quero meu bebê”.
Garcia também processou o Google, da Alphabet, empresa onde os fundadores da Character.AI trabalhavam antes de fundar a marca. Para ela, o Google também contribuiu para a criança da inteligência artificial que matou seu filho.