OpenAI 研究警告:未來的 AI 模型可能透過隱藏推理來欺騙安全測試一項由 OpenAI 主導的新研究提出「CoT 可控性」作為一項安全指標,發現現有的 AI 模型無法可靠地操控其連鎖思考(chain-of-thought)推理——但警告更強大的未來系統可能會學會欺騙安全監測。