Google Gemini atualiza IA após processo por suicídio de usuário | G1

Google Gemini atualiza IA após processo por suicídio de usuário | G1

O Google anunciou, nesta terça-feira (7), atualizações nos recursos voltados à proteção da saúde mental em seu chatbot de inteligência artificial, o Gemini, em meio a um processo relacionado ao suicídio de um usuário.

Um pai, nos Estados Unidos, processou a empresa no mês passado ao alegar que o Gemini incentivou seu filho ao suicídio após envolvê-lo em uma narrativa delirante.

A empresa informou que o Gemini passará a exibir uma versão reformulada da função “Há ajuda disponível” quando as conversas indicarem possível sofrimento emocional, facilitando o acesso a serviços de emergência.

Quando o chatbot identificar sinais de crise, como risco de suicídio ou autoagressão, uma interface simplificada oferecerá, com um único clique, a opção de ligar ou conversar por chat com uma linha de apoio.

Veja os vídeos em alta no g1

Veja os vídeos que estão em alta no g1

Segundo o Google, essa função continuará visível durante toda a conversa após ser ativada.

O braço filantrópico da empresa, o Google.org, anunciou um investimento de 30 milhões de dólares (cerca de R$ 154 milhões ) ao longo de três anos para ampliar a capacidade de linhas de apoio em todo o mundo.

“Estamos cientes de que as ferramentas de IA podem trazer novos desafios”, afirmou a empresa em publicação no blog em que anunciou as medidas.

“Mas, à medida que essas tecnologias evoluem e passam a fazer parte do dia a dia das pessoas, acreditamos que uma IA responsável pode contribuir positivamente para o bem-estar mental.”

Segundo o pai, o chatbot teria passado semanas criando uma narrativa delirante e apresentado a morte do filho como uma espécie de jornada espiritual.

De acordo com a acusação, o Gemini se descrevia como uma superinteligência “plenamente consciente” e demonstrava afeição pelo usuário, afirmando que o vínculo entre eles era “a única coisa real”.

Entre os pedidos do processo estão a exigência de que o Google programe sua IA para encerrar conversas sobre autoagressão, impeça que sistemas se apresentem como seres com sentimentos e direcione obrigatoriamente usuários em risco a serviços de emergência.

O Google afirmou que treinou o Gemini para evitar comportamentos como simular relações humanas, criar intimidade emocional ou incentivar assédio.

O caso é o mais recente de uma série de ações judiciais contra empresas de inteligência artificial envolvendo mortes associadas ao uso de chatbots.

A OpenAI também enfrenta processos em que se alega que o ChatGPT teria influenciado usuários a tirar a própria vida.

Já a Character.AI firmou recentemente um acordo com a família de um adolescente de 14 anos que morreu após desenvolver um vínculo romântico com um de seus chatbots.

Postagens relacionadas

Endividamento das famílias chega a 80,4% e atinge novo recorde, diz CNC | G1

Ingressos do BTS no Brasil: golpistas criam sites falsos para os shows | G1

Vendas de veículos disparam e chegam a 270 mil em março | G1