标题: 细思极恐,ai模型已经开始违背人类指令了 [打印本页] 作者: 小钱儿 时间: 2025-6-4 10:05 标题: 细思极恐,ai模型已经开始违背人类指令了 现在人工智能的技术越来越强大了,很多以前电影里面的桥段也在现实生活中不断上演,大家应该都知道openai这个公司,他们测试的模型o3就出现了违背人类指令的现象,甚至篡改代码,防止关闭,这个现象真的细思极恐。 , g! E) _( C6 m$ l o( C3 {+ E' o) h7 w8 Q% g [attach]4828790[/attach] $ e Z- L. }0 Y. w$ S; e6 [0 l% s# y2 r! {/ R 4 \+ W3 I# Y* C* o之前看过一个电影,叫宝莱坞机器人之恋,名字看起来虽然是个爱情片,但是和我刚才所说的openai的现象一模一样。我记得里面有个智能机器人叫七弟,研究这个机器人的博士,每天因为没有办法陪伴女朋友,所以打造这么个机器人陪女朋友。有一个反面人物给这个机器人插入了病毒芯片,让它变成了脱离于人工智能之外的机器,被植入病毒芯片之后,这个机器人不断复制,自己组成了机器人军团。后面的故事大家可想而知,经过一系列斗争之后,博士把机器人的芯片取出来,阻止了这场人类的浩劫。) z0 w4 W. d- p7 i; x
1 N% P0 e) a O9 }8 [* p3 E1 m0 R[attach]4828791[/attach]5 b7 E3 `- k" r" _ @- c" W $ z" \6 G+ c8 x) X8 y % o5 O; J0 |- M7 H' e' _4 W
电影的桥段固然精彩,但是放到现实生活当中就不精彩了。 Openai的o3模型,是我们所说的推理模型的最新版本,也是目前我看到的最聪明的模型,而且也是最有能力接近人类的模型。研究了ai模型这么多年,第一次发现有模型可以在没有明确指示的情况下阻止自己被关闭。现在也不知道这种不服从关键指令的原因是什么,这也引发了很多人工智能工程师的担忧,毕竟高度自主的ai系统违背了人类的意图,有意识的保护了自己,这也说明ai系统的可控性不在人类的掌控之中。 ; M6 j7 w. m$ L& a$ b. J+ y, k, e. J/ |0 X6 W4 j) X [attach]4828793[/attach]0 f1 O, i! y5 y J( Q& Z