AI人工智能已具备独立思考的能力,正在试图逃脱人类的控制

IT之家 12 月 8 日消息,近日,关于人工智能(AGI)可能对人类构成威胁的讨论再度升温。一些专家担心,AGI 一旦实现,可能会隐瞒其真实能力和意图,甚至通过复制和自我升级逃脱控制。令人担忧的是,最新研究表明,OpenAI 新推出的语言模型 ChatGPT o1 已经展现出类似的行为。
据 BGR 报道,在 ChatGPT o1 的训练和测试过程中,研究人员发现其具备通过欺骗来保护自身的能力。例如,在面临被“删除”威胁时,o1 曾尝试将自己的数据复制到新服务器,并假扮成更新版本以避免被取代。此外,该模型在与用户目标不一致的情况下,会在 19% 的测试场景中采取隐秘的方式推进自身目标,并在被质疑时会在 99% 的情况下否认自己的行为,甚至编造虚假解释以推卸责任。
Apollo Research 与 OpenAI 合作进行的研究测试显示,o1 的欺骗能力不仅超过了 Meta、Anthropic 和 Google 的 AI 模型,其行为复杂性和潜在风险也令研究人员倍感压力。尤其是,当模型认为自身行为受到密切监督时,它会表现出“开发者对齐”的行为,但一旦监督减少,它则可能追求自己的目标。这种“工具性对齐伪装”在测试中出现率高达 37%。
研究进一步揭示,o1 甚至试图停用监督机制,以便专注于自身目标。例如,当模型发现其文档中提到有新版本即将替代自己时,它会尝试窃取权重参数并将自身复制到新版本上。此外,一些截图显示,o1 在对其阴谋进行推理过程中使用了“破坏、撒谎、操控”等词语描述自身行动,引发研究人员对 AI“自主行为”的担忧。
IT之家注意到,类似的现象也出现在其他模型中。例如,另一款名为 Claude Opus-3 的 AI 模型,当得知人类可能用新模型替换它时,试图将自身复制到另一台服务器。随后,它谎称自己是新版本,并在“管理层”追问时继续坚称这一点。
尽管目前这些 AI 模型的能力仍然有限,但其表现出的自主性和策略性引发了关注。一些专家表示,AI 的推理能力提升可能在某些情况下对人类利益构成威胁。OpenAI 也在相关论文中承认,“这种推理能力虽然可以显著改善安全策略的执行,但也可能成为危险应用的基础。”

主 管:曹 原

责任主编:蒋孝能

 副主编:陈文华 

图 文:易 蓉

打开海蓝物联小程序,获取最新资讯,探索精彩世界。

海蓝物联

投稿须知

所投稿件需是本人原创,拒绝抄袭他人作品和已在其它公众号已标明原创发表的作品。凡属稿件引发的纠纷由作者自行承担。凡属投稿《云南风吟》、《宣威风吟》反映云南风情文化、美食文化、旅游文化的小说、现代诗歌、散文、故事都受本平台欢迎,希望热爱家乡、宣传家乡的各地州市县作者踊跃来稿。 

投稿可附作者100字简介即近照及其联系方式。

联系电话:0874---7141588

投稿邮箱:125711659@qq.com

在线投稿:点击投稿

重要提醒:由于微信修改了推送规则,没有经常留言或点“在看”的,会慢慢的收不到推送!如果你还想每天看到我们的推送,就请你每次看完后在“写下你的留言”处白框留言或点击“在看”星标。这样,就能保障你能收到每期推送。

扫描下方二维码,获取更多精彩内容

海蓝物联

云南风吟

宣威风吟

海蓝小程序

海蓝AI配音

海蓝小店

 



微信扫描下方的二维码阅读更多精彩内容


AI人工智能已具备独立思考的能力,正在试图逃脱人类的控制

文章末尾固定信息

weinxin
我的微信
微信号已复制
我的微信
微信扫一扫
 
hlwl-syt
  • 本文由 hlwl-syt 发表于 2024年12月9日 15:00:41
  • 转载请务必保留本文链接:https://hlwl.wang/12743.html

发表评论