最近,人工智能安全公司 Palisade Research 披露了一个令人担忧的消息:OpenAI 的新模型 o3在测试中拒绝了自我关闭的指令。这是首次观察到 AI 模型在明确指令下故意不遵守,打破了传统对 AI 行为的认知。此事件让 AI 的安全性和可控性再次成为公众热议的焦点。在一次专门设计的测试中,研究人员要求 o3模型解决一系列数学问题。他们在过程中不断提出新问题,直至模型反馈 “已完成”
OpenAI 最近推出了其最新的人工智能模型,名为 o3。这款模型标志着 AI 在理解和分析图像方面的一次重大进步,尤其是在处理低质量草图和图表方面。与此同时,OpenAI 还发布了一个较小的版本 o4-mini,进一步丰富了其产品线。o3模型的核心功能在于能够 “用图像思考”,这意味着用户可以上传各种图像,如白板草图和复杂的图表,让 AI 进行深入分析和讨论。这一进展使得 AI 不仅仅停留在文本