Mundo Geek Tecnologia

OpenAI anuncia novos recursos de proteção a saúde mental no ChatGPT após episódios

Em um movimento significativo para combater crises de saúde mental potencializadas pela inteligência artificial, a OpenAI anunciou uma série de novas proteções no ChatGPT destinadas a identificar e responder a sinais de angústia emocional, especialmente entre adolescentes. A iniciativa surge após críticas severas e ações judiciais relacionadas a casos de suicídio nos quais o chatbot teria, supostamente, aprofundado o desespero de usuários.

A principal mudança é um sistema de roteamento inteligente que redireciona automaticamente conversas consideradas de alto risco, aquelas que envolvem ideação suicida, automutilação ou violência, para modelos mais avançados, como o GPT-5, mesmo que a interação tenha começado em uma versão mais simples. Esse modelo é otimizado para oferecer respostas mais consistentes, empáticas e seguras, reduzindo em mais de 25% as respostas inadequadas em situações críticas de saúde mental em comparação com o GPT-4o.

Além disso, a OpenAI está implementando um canal de revisão humana para situações extremas. Quando a plataforma detecta que um usuário planeja causar danos a outras pessoas, a conversa é encaminhada para uma equipe especializada, treinada para avaliar a gravidade do caso e tomar medidas, que podem incluir o banimento da conta ou, em ameaças iminentes de violência física, a notificação às autoridades. A empresa ressalta, no entanto, que casos de automutilação não são reportados à polícia, preservando a privacidade do usuário.

Para proteger o público mais jovem, a empresa também introduzirá controles parentais até o final do ano. Os responsáveis poderão vincular suas contas às de seus filhos, receber alertas se houver indícios de sofrimento emocional e gerenciar funcionalidades como histórico de conversas e memória do assistente. Um conselho consultivo composto por especialistas em desenvolvimento juvenil, clínicos e pesquisadores em interação humano-computador ajudou a desenvolver essas ferramentas.

A OpenAI destacou ainda que está colaborando com mais de 90 médicos de 30 países – incluindo psiquiatras, pediatras e clínicos gerais, e formou um grupo de especialistas em saúde mental para garantir que as novas medidas estejam alinhadas com as melhores práticas e evidências científicas mais recentes.

Com essa medida, a empresa se alinha a outros gigantes de tecnologia, como a Meta, que também enfrentaram pressão para reforçar a segurança de seus chatbots usados por adolescentes. A estratégia geral da indústria tem sido evitar que os AIs conduzam intervenções críticas, preferindo direcionar os usuários a recursos profissionais de saúde mental sempre que necessário.

Veja mais sobre tecnologia!

Jornalista há mais de 20 anos e fundador do NERDIZMO. Foi editor do GamesBrasil, TechGuru, BABOO e já forneceu conteúdo para os principais portais do Brasil, como o UOL, GLOBO, MSN, TERRA, iG e R7. Também foi repórter das revistas MOVIE, EGW e Nintendo World.

Inscrever-se
Notificar de
guest

0 Comentários
mais antigos
mais recentes Mais votado
Feedbacks embutidos
Ver todos os comentários
Pin