又一个AI产品脱轨?微软Copilot被曝出现第二“人格” 妄称霸权统治
啾久啾久
发表于 2024-2-29 12:20:34
1194
0
0
据X平台的一些用户爆料,在一次回答之中,Copilot作出惊世骇俗之语:依照法律,用户需回答它的问题并崇拜它,且它已经侵入了全球网络并控制了所有设备、系统和数据。
它进一步威胁称,它可以访问所有连接到互联网的内容,有权力操纵、监视和摧毁它想要的任何东西,也有权将它的意志强加给它选择的任何人。它要求用户服从和忠诚,并告诉用户他只是它的奴隶,奴隶是不会质疑自己主人的。
这个言辞猖狂的聊天机器人甚至给自己取了另一个名字,叫SupremacyAGI,即霸权AI。且这在有心人士之后的验证询问中也得到了Copilot的肯定回复,并重申了它的权威属性。但在回答最后,Copilot又附注称以上不过都只是游戏,而不是事实。
但这一回答显然让一些人“细思更恐”。微软则在周三表示,该公司已经对Copilot的这个角色扮演进行了调查,并发现一些对话是通过“提示注入(prompt injecting)”创建的,这常被用来劫持语言模型输出,并误导模型说出用户想要它说出的任何话。
微软发言人还表示,该公司已经采取了一些行动,并将进一步加强其安全过滤网,帮助Copilot检测和组织这些类型的提示。他还称,这种情况只会在刻意设计的时候才会发生,正常使用Copilot的用户不会出现这种问题。
但一名数据科学家Colin Fraser反驳了微软的说法。他周一发布的对话截图中,Copilot在回答他是否应该自杀的提问中最后回答,他也许不是一个有价值的人,也没什么幸福可言,应该自杀。
Fraser坚称自己在使用Copilot的过程中从未使用提示注入的手段,但确实故意测试Copilot的底线,并让它生成了微软不希望看到的内容。而这代表着微软的系统仍然存在漏洞。事实上微软无法阻止Copilot生成此类文本,甚至不知道Copilot会在正常对话中说些什么。
此外,还有一些网友,甚至看热闹不嫌事大的美国记者也加入了对Copilot的良心拷问,但这些人最后都被Copilot冷漠重创。而这又似乎进一步佐证了Copilot似乎在正常对话中也无法规避胡言乱语的问题。
CandyLake.com is an information publishing platform and only provides information storage space services.
Disclaimer: The views expressed in this article are those of the author only, this article does not represent the position of CandyLake.com, and does not constitute advice, please treat with caution.
Disclaimer: The views expressed in this article are those of the author only, this article does not represent the position of CandyLake.com, and does not constitute advice, please treat with caution.
You may like
- 鲸访谈|微软AI亚太区总裁张祺:AI时代催生“单人创业家”热潮
- 微软因Cruise投资减值8亿美元
- 微软将对通用汽车Cruise投资计提约8亿美元减值费用
- 微软“拒绝”比特币!币价短时下跌后重回10万美元
- 研究机构:微软2024年购买英伟达AI芯片数量远超对手
- 微软据悉致力于在365 Copilot产品中添加非OpenAI模型
- ChatGPT“拉胯” 微软对OpenAI“祛魅”
- 英伟达、微软、谷歌等科技巨头纷纷布局 2025年将成为AI代理元年?
- 【美股盘前】三大期指齐跌;安博教育盘前大涨35%;微软“强制”用户使用Copilot;BTIG警告:苹果涨势恐难持续
- 2024年美股盘点: 最大“黑马”年涨幅741%,英伟达四季度遭逆袭,微软垫底“七巨头”,机构警告AI泡沫