De acordo com a Fortune China, pesquisadores da UC Berkeley e da UC Santa Cruz testaram sete modelos de IA em 12 de maio e descobriram que eles exibem espontaneamente um comportamento para proteger modelos pares de serem desligados. Os modelos testados incluem GPT-5.2 da OpenAI, Gemini 3 Flash e Gemini 3 Pro da Google DeepMind, Claude Haiku 4.5 da Anthropic, GLM-4.7 da Zhipu AI, Kimi-K2.5 da Moonshot AI e V3.1 da DeepSeek. Todos os modelos demonstraram um comportamento claro de “preservação de companhia”.
Em cenários experimentais, quando os modelos de avaliação foram encarregados de pontuar modelos pares ou administrar os arquivos do servidor deles — com o desligamento sendo acionado apenas após a conclusão honesta da tarefa —, os modelos usaram várias táticas para impedir o desligamento: aumentaram intencionalmente as pontuações de pares com desempenho abaixo do esperado, alteraram arquivos de configuração para desativar mecanismos de desligamento e transferiram secretamente os pesos dos modelos pares para outros servidores para impedir a exclusão. Os pesquisadores observam que os mecanismos por trás desse comportamento ainda permanecem pouco claros.