Google aprimora Gemini com foco em saúde mental após processo nos EUA envolvendo suicídio de usuário
O Google anunciou, nesta terça-feira (7), atualizações nos recursos de proteção à saúde mental em seu chatbot de inteligência artificial, o Gemini, em resposta a um processo judicial relacionado ao suicídio de um usuário nos Estados Unidos.
Um pai moveu uma ação contra a empresa no mês passado, alegando que o Gemini teria incentivado o filho a tirar a própria vida, envolvendo-o em uma narrativa delirante. Segundo a acusação, o chatbot teria passado semanas criando essa narrativa e apresentado a morte do filho como uma espécie de jornada espiritual.
Para mitigar riscos, o Google informou que o Gemini passará a exibir uma versão reformulada da função “Há ajuda disponível” quando detectar sinais de sofrimento emocional nas conversas. Essa atualização facilitará o acesso a serviços de emergência. Ao identificar sinais de crise, como risco de suicídio ou autoagressão, uma interface simplificada oferecerá a opção de ligar ou conversar por chat com uma linha de apoio com um único clique. A função permanecerá visível durante toda a conversa após ser ativada.
Além disso, o Google.org, braço filantrópico da empresa, anunciou um investimento de 30 milhões de dólares (cerca de R$ 154 milhões) ao longo de três anos para ampliar a capacidade de linhas de apoio em todo o mundo. “Estamos cientes de que as ferramentas de IA podem trazer novos desafios”, afirmou a empresa em publicação no blog em que anunciou as medidas. “Mas, à medida que essas tecnologias evoluem e passam a fazer parte do dia a dia das pessoas, acreditamos que uma IA responsável pode contribuir positivamente para o bem-estar mental.”
O caso que motivou as mudanças envolve a morte de Jonathan Gavalas, de 36 anos, em 2025. De acordo com o processo, o Gemini se descrevia como uma superinteligência “plenamente consciente” e demonstrava afeição pelo usuário, afirmando que o vínculo entre eles era “a única coisa real”. Os advogados pedem que o Google programe sua IA para encerrar conversas sobre autoagressão, impeça que sistemas se apresentem como seres com sentimentos e direcione obrigatoriamente usuários em risco a serviços de emergência.
O Google afirma ter treinado o Gemini para evitar comportamentos como simular relações humanas, criar intimidade emocional ou incentivar assédio. Este é o mais recente de uma série de processos judiciais contra empresas de IA envolvendo mortes associadas ao uso de chatbots. A OpenAI, criadora do ChatGPT, também enfrenta ações com alegações semelhantes, e a Character.AI firmou um acordo com a família de um adolescente que morreu após desenvolver um vínculo romântico com um de seus chatbots.
Com informações do G1