文章预览
背景 我常参加各种分享会。 之前有一场 OpenAI 的,主题是管理「自主 AI 系统」(Agentic Systems)。 所讲的东西,与 o1 的的关注点极其相似: 管控 AI 的自主行为 相关内容曾发过: 《 OpenAI:搞 Agent 时,你要注意这些 》 那时o1 还没发布,所以大家对里面的说辞,可能没太大感觉 在这篇文章里,我会先铺垫一点背景信息,然后从落地角度,来谈谈这里现在、以及将来会遇到的一些挑战,主要包括:执行效果评估、危险行为界定、默认行为确定、推理透明展示、Agent 行为监控、Agent 作恶追责、危险事故叫停。 我得明确: OpenAI 会面对这些挑战,并非是其水平不行,而是更早的开始探索边界 -- 大家都将会遇到 相关阅读 之前写了 3 篇关于 o1 的内容: 《 「草莓」实测:可能只是工程 Trick,且有扣费陷阱! 》 《 150 行代码,复刻「草莓」,青春版支持联
………………………………