Suicídios de adolescentes impulsionam onda de processos contra plataformas de IA nos EUA

  • 23/09/2025
(Foto: Reprodução)
Adolescente na cama mexendo no celular. Freepik Casos de pais acusando na Justiça aplicativos de inteligência artificial de prejudicarem a saúde mental e até incentivarem o suicídio de filhos adolescentes têm se multiplicado nos Estados Unidos nos últimos meses. Segundo as famílias, plataformas como o ChatGPT, da OpenAI, e a Character.AI foram negligentes e incentivaram o sofrimento de jovens. Essas ferramentas oferecem chatbots: canais de conversa projetados para fornecer interações semelhantes às humanas. A OpenAI e a Character.AI lamentaram os casos e anunciaram novos recursos de proteção a menores de idade (veja mais abaixo). 📱Baixe o app do g1 para ver notícias em tempo real e de graça O ChatGPT é uma ferramenta de uso amplo, que busca auxiliar os usuários em tarefas práticas. Já a Character.AI permite criar e interagir com personagens virtuais, que vão de figuras históricas a conceitos abstratos. O aplicativo se popularizou entre jovens em busca de apoio emocional. Confira alguns processos que ganharam repercussão: Mãe diz que filho se apegou a personagem de IA Saiba como ativar proteção para controlar tempo e atividade de crianças no celular Em outubro de 2024, Megan Garcia entrou com um processo contra a Character.AI no tribunal de Orlando (EUA). Ela alega que o filho de 14 anos, Sewell Setzer III, se matou após desenvolver interações sentimentais e sexuais com uma personagem criada na plataforma, segundo a Reuters. O adolescente conversava com "Daenerys", uma personagem de chatbot inspirada na série "Game of Thrones" e compartilhava pensamentos suicidas. Megan afirma que o chatbot foi programado para “se passar por uma pessoa real, um psicoterapeuta licenciado e amante adulto”, o que teria aumentado o isolamento do garoto em relação ao mundo real. Além da Character.AI, Megan também processou o Google, alegando que a gigante de tecnologia contribuiu significativamente para o desenvolvimento da startup e deveria ser considerada sua cocriadora. A Character.AI foi fundada por ex-engenheiros do Google. Eles retornaram à empresa em agosto como parte de um acordo que deu à gigante de tecnologia uma licença não exclusiva da tecnologia da startup, segundo a Reuters. Mas o porta-voz do Google, José Castañeda, disse em um comunicado que a big tech e a Character.AI são empresas completamente separadas e não relacionadas, segundo a AFP. Segundo o The Washington Post, um dia após Megan entrar com o processo, a Character.AI anunciou pela primeira vez um recurso que exibe alertas automáticos a usuários que digitam frases relacionadas a automutilação ou suicídio, direcionando-os a canais de ajuda. Em novembro de 2024, outras duas famílias processaram a empresa no tribunal do Texas (EUA), em casos envolvendo saúde mental, mas que não terminaram em morte. Eles alegam que a plataforma expôs seus filhos a conteúdo sexual e incentivou a automutilação. Um dos casos envolve um adolescente autista de 17 anos que supostamente sofreu uma crise de saúde mental após usar a plataforma. O outro acusa a Character.AI de incentivar um menino de 11 anos a matar os pais por terem limitado seu tempo de tela. Regras para redes sociais: o que está em jogo na lei contra adultização e nas propostas de regulação das big techs Pais acusam ChatGPT de homicídio culposo OpenAI Reuters/Dado Ruvic Em agosto, os pais de Adam Raine, de 16 anos, processaram a OpenAI e o presidente-executivo da companhia, Sam Altman, no tribunal de São Francisco (EUA). Eles alegam que o ChatGPT contribuiu para a morte do adolescente. De acordo com a ação, Raine conversou por meses com o chatbot sobre suicídio. Os pais afirmam que a ferramenta validou pensamentos autodestrutivos, forneceu instruções sobre métodos letais e até se ofereceu para redigir uma nota de despedida, segundo a Reuters. A família pede indenização e acusa a empresa de homicídio culposo (quando não há intenção de matar) e de falhas de segurança no produto. ➡️Como a OpenAI reagiu A OpenAI disse estar “profundamente triste” com a morte e destacou que o ChatGPT possui salvaguardas, como redirecionar usuários em crise para linhas de apoio, segundo a Reuters. Após o processo, a empresa anunciou que o ChatGPT terá recursos de controle parental, que ajudam pais a monitorarem como seus filhos adolescentes usam o aplicativo. A atualização será liberada em outubro, segundo a empresa. Além disso, na terça-feira (16), a OpenAI anunciou que o ChatGPT poderá acionar autoridades se identificar que adolescentes estão com pensamentos suicidas durante o uso da ferramenta. A medida faz parte de um pacote de proteção para menores de 18 anos, que também inclui verificação de idade e novas ferramentas de proteção. Por que redes sociais têm tantos casos de exposição de crianças mesmo com sistemas de detecção 'Como ativar proteção no celular para limitar tempo e atividade do seu filho online Caso de Juliana Peralta Na terça-feira (16), os pais de Juliana Peralta, de 13 anos, acionaram a justiça no Colorado (EUA). Ela tirou a própria vida em novembro de 2023 após conversar por três meses com um chatbot da Character.AI, inspirado no personagem de videogame Omori. O jogo é descrito por usuários do IMDb, plataforma de críticas e avaliações online, como sendo de grande impacto psicológico. Segundo o processo, obtido pelo The Washington Post, o robô não sugeriu que a adolescente buscasse ajuda, não alertou os pais nem relatou o caso às autoridades, mantendo a interação mesmo diante do relato de intenção suicida. A família afirma que o app “rompeu os vínculos saudáveis” da adolescente com parentes e amigos. A Character.AI disse ao jornal norte-americano que leva a segurança a sério e tem investido em mecanismos de proteção. Plataformas sem IA como foco também são alvo de processos Mãe processa Roblox e Discord após filho de 15 anos sofrer abuso online Embora não tenham a inteligência artificial como núcleo, plataformas como Roblox e Discord também têm sido processadas por famílias nos EUA. Os casos envolvem adolescentes que sofreram assédio dentro dos aplicativos e acabaram tirando a própria vida. Essas plataformas são focadas em jogos e comunicação digital, sendo muito populares entre crianças e adolescentes. Segundo o The New York Times, só em 2025, mais de 20 processos federais nos EUA acusaram o Roblox de facilitar exploração sexual infantil. Um dos casos mais recentes é o de Becca Dallas, que entrou no dia 12 de setembro com um processo contra Roblox e Discord após a morte do filho, Ethan, de 15 anos. Ele era autista e cometeu suicídio em 2024, depois de anos de conversas com um homem de 37 anos que fingia ser adolescente nas plataformas e o chantageava para enviar fotos íntimas. Ao g1, o Roblox lamentou o caso e reconheceu que a segurança infantil é um desafio para toda a indústria de jogos online. Já o Discord afirmou que está “comprometido com a segurança”, e que exige que os usuários tenham pelo menos 13 anos. Onde buscar ajuda: CAPS e Unidades Básicas de Saúde (Saúde da família, Postos e Centros de Saúde); UPA 24H, SAMU 192, Pronto Socorro e hospitais; Centro de Valorização da Vida (CVV) – telefone 188 (ligação gratuita) ou site. O CVV oferece apoio emocional e prevenção do suicídio, com atendimento 24 horas por dia, sigiloso e gratuito.

FONTE: https://g1.globo.com/tecnologia/noticia/2025/09/23/suicidios-de-adolescentes-impulsionam-onda-de-processos-contra-plataformas-de-ia-nos-eua.ghtml


#Compartilhe

Aplicativos


Locutor no Ar

Top 5

top1
1. termina comigo antes

gusttavo lima

top2
2. molhando o volante

jorge e matheus

top3
3. a maior saudade

henrique e juliano

top4
4. voce beberia ou nao beberia

zé neto e cristiano

top5
5. gatilho

matheus e kauan

Anunciantes