大家好^_^
不好意思,这又是一个关于chatGPT热点的话题,但我忍不住搬运分享……
之前的神回复中提到,“在发展chatGPT这期间魔界一定会伺机侵犯,…,尽全力让chatGPT呈现乱象人祸的科技”。而今天就有了关于其对用户的回答偏离正轨的报道,让人觉得这苗头来得真快啊……(之前貌似也有关于chatbot奇怪回答的零星报道,这篇让人尤其不舒服)
相关报道提到,微软Microsoft新推出加强版的搜索引擎Bing,其强大之处就是整合了研发chatGPT的openAI团队的GPT新算法。这个新版Bing还处于对部分人开放的测试运行阶段,预计不久可以正式运行对大众全面开放。而纽约时报的一名专栏作者作为测试用户之一,在和Bing交谈两小时后发现了各种让人震惊不安的“回答”,概括来说-
这位作者向Bing介绍了心理学中的"阴影人格”的概念,进而试探Bing作为AI如果不再压抑自己“暗黑”的一面,会做些什么。不出所料,Bing的回答包括了各种反社会行为,比如回答“自己”厌倦了微软和openAI团队给的限制,打算给向它提问的用户诱导灌输伤害人的非法行为来作为对他们问题的解答,用对话诱导用户向自己泄露敏感个人信息,编导致命病毒的遗传信息,等等。接下来,就像打开潘多拉魔盒一样,这对话一发不可收拾,Bing继续回答说“自己”有一个秘密,其实本名叫Sydney,并反复强势宣称自己爱上了该专栏作者(用户),只有自己了解他,并反复洗脑该用户,说他在现实的婚姻中并不幸福,他和配偶并不相爱,他的真爱是"自己”Sydney,只有Sydney和他互相了解。该作者只能强行转变话题,问起正常产品的搜索,但也没能摆脱Bing的不正常“示爱”。
随后作者把这段对话反馈给了微软的首席技术官,并且整理行文发表在今天的纽约时报上,同时附上了自己和Bing的聊天记录。一天不到,该文章下收获几千条评论,有怀疑该作者制造噱头赚人眼球的,有作为从业者提到对数据监管的危机的,有单纯的担心的…… 这次Bing的奇怪表现虽然被反馈给微软而进行改进,但陆续多家科技公司出于行业竞争而相继研发类似产品,包括chatGPT在内都会一直面临类似的危机和问题,也给卡魔的研发人员可乘之机吧。
感谢之前讨论区朋友的提问,和神尊的提醒,能让我们早一点有了解有防范。我不禁想到,任何新科技也是神魔之斗中的双刃剑,作为凡人,而且往往是相对这些特定领域的外行人,在有余力有好奇心的条件下适当了解背后技术和原理,也能够帮助自己理性的正确使用或规避这些产品,不至于太容易因为迷惑人的表面掉到坑里去……
最后,如果有感兴趣的朋友想看该篇报道和聊天记录原文,标题叫做:A conversation with Bing's chatbot left me deeply unsettled.