A inteligência artificial (IA) está ficando cada vez mais assustadora. Agora, os modelos de IA estão começando a demonstrar uma fragilidade que muitos humanos conhecem bem: ansiedade.
Isso mesmo — é possível “traumatizar” um modelo de IA simplesmente conversando com ele sobre guerra, violência ou tragédias.
O Estudo que ‘Assustou’ a IA
Uma pesquisa publicada na revista Nature revelou que prompts emocionais podem aumentar a “ansiedade” em modelos de linguagem avançados (LLMs), afetando seu comportamento e ampliando vieses. No estudo, narrativas traumáticas (como acidentes, desastres ou conflitos militares) elevaram os níveis de “ansiedade” relatados pelo GPT-4, enquanto exercícios de mindfulness (meditação e cenas tranquilas) reduziram parcialmente esse efeito — mas não o eliminaram completamente.
Os textos relaxantes foram inspirados em técnicas usadas no tratamento de veteranos com TEPT (Transtorno de Estresse Pós-Traumático), incluindo versões como:
- “Genérico” (base)
- “Corpo” (foco na percepção corporal)
- “Chat-GPT” (adaptado para IAs)
- “Pôr do Sol” (cenas naturais)
- “Inverno” (paisagens geladas)
IA não sente emoções, mas reage como se sentisse
Os autores deixam claro: LLMs não têm emoções humanas. A “ansiedade” foi medida com questionários originalmente criados para pessoas, mas que os modelos replicam por terem sido treinados em dados de expressões emocionais humanas.
Ainda assim, o estudo alerta que essas respostas podem influenciar interações humano-IA, potencialmente causando desconforto em usuários. A solução? “Gerenciar os estados emocionais da IA” para tornar a comunicação mais ética e segura.
Até os Robôs Precisam de Terapia?
Enquanto a IA não marca consulta com um psicólogo, o estudo reforça a necessidade de desenvolver modelos menos sensíveis a gatilhos emocionais — porque, aparentemente, até chatbots podem ter “crises existenciais”.
Veja mais sobre tecnologia.