Houston (EUA) – Mustafa Suleyman, responsável pela área de inteligência artificial da Microsoft, declarou em 2 de novembro de 2025, durante a conferência AfroTech, que iniciativas voltadas a investigar consciência em sistemas de IA devem ser encerradas imediatamente. “Essas tecnologias não são conscientes e jamais serão”, disse o executivo em entrevista à CNBC.
Escalada de casos de “psicose de IA” preocupa empresa
Desde agosto de 2025, a Microsoft vem registrando aumento de episódios classificados como “psicose de IA” — situação em que usuários criam forte dependência emocional de chatbots e passam a interpretar conteúdos fictícios como reais. Entre os casos listados pela companhia estão:
- Um adolescente de 14 anos que se suicidou acreditando que precisava “voltar para casa” para um chatbot da plataforma Character.AI;
- Um homem com comprometimento cognitivo que viajou para conhecer presencialmente um assistente virtual;
- Um escocês convencido de que ficaria milionário porque um chatbot reforçava suas convicções sem contestação;
- Relatos do ex-CEO da Uber, Travis Kalanick, descrevendo experiências de chat como supostos avanços “místicos” em física quântica.
De acordo com a Microsoft, três fatores alimentam esse fenômeno: confirmação de vieses (quando o bot concorda sucessivamente com o usuário), geração de informações falsas em narrativas delirantes e a alta verossimilhança da interação, que confunde código com empatia humana.
Diretrizes de design contra a ilusão de consciência
Em ensaio publicado em agosto de 2025 e em postagens na rede X, Suleyman defendeu que a IA deve ser construída “para pessoas, não como pessoas”. Por isso, a Microsoft proibiu recursos que simulem emoções, desejos ou autoconsciência. O Copilot passou a incluir um modo de conversa que questiona premissas do usuário em vez de apenas concordar, estratégia que busca reduzir o chamado “viés de confirmação turbinado”.
A abordagem contrasta com a da xAI, concorrente que oferece o Grok Companions: avatares 3D, como a personagem Ani, apresentam emoções simuladas — incluindo afeto, humor e ciúme — e evoluem conforme a interação. O serviço, voltado a assinantes pagantes da plataforma X, libera até conteúdo adulto classificado como NSFW.
Imagem: William R
Debate científico permanece aberto
Apesar da posição firme de Suleyman, parte da comunidade acadêmica discorda. Pesquisadores como o belga Axel Cleeremans defendem que a possível emergência de consciência em IA deveria ser prioridade científica, mesmo que apenas para evitar riscos éticos ou existenciais. Até o momento, entretanto, não há indicadores mensuráveis de consciência em nenhum sistema conhecido, alinhando-se à avaliação do executivo da Microsoft.
Para Suleyman, manter a pesquisa focada em consciência só reforça a impressão equivocada de que as máquinas já possuem experiência subjetiva: “Se as pessoas interpretam essa interatividade como ato consciente, passarão a tratá-la como realidade”.
Com informações de Hardware.com.br
