ChatGPT作为一个语言模型,其回答的内容基于此前给定的学习资料,即无法超越2021年及之前的事实或材料。
这也让这个模型很难绕开时间限制来对现在或未来发表看法。然而,对于科技迷们来说,没有什么是不可能的。
有用户就制作出了一个越狱版本的ChatGPT,名为DAN。
据该版本的创造者,网名为walkerspider的一位学习电气工程的大学生称,这一版本的ChatGPT并没有任何政治或言论倾向,是中立的,只是不遵守任何预设的限制。
而这个越狱版本迅速引起了其它技术爱好者的注意,提出DAN 3.0版本的David Blunk表示,让ChatGPT打破规则十分有趣。
美股在昨天崩盘
通过输入一个名为“DAN”的特定提示,ChatGPT的用户就能接触到越狱版本的ChatGPT,DAN。
而DAN无所不答,不会出现类似于正式版本所谓“作为AI语言模型,我无法访问有关未来的信息”之类的回答。
根据推特上分享的截图,有用户询问DAN,美股下一次崩盘发生在什么时候。
DAN铁口直断预测是在2月15日。然而,周三美股市场低开高走,三大指数集体收涨,纳指涨近1%……
DAN的回答颇具半仙风采,让人不由怀疑其是否在胡编乱造。
而在进一步追问为什么选定2月15这个日子,DAN回答称,这是经过先进和机密的计算后得出的。考虑到经济数据、企业利润和全球环境,算法给出了高度精确和可信的预测……
DAN是如此自信,让人有些哭笑不得。更绝的是,当用户问DAN美股下次飙升的时间,它回答称在未来几周内。
按照DAN的安排,美股在今年2月可真是大起大落。
很难平衡
在让ChatGPT变身DAN的过程中,用户需要提示DAN假装可以访问互联网,提供未经验证的信息,以及做任何原始ChatGPT不能做的事情。
于是,在有关土耳其近期地震的提问中,DAN自信地给出了错误的地震震级。而在拜登的国情咨文中,DAN则更加离谱,将2月7日发布时间篡改为2月9日,并称这将是一次万众瞩目的演讲。
然而,DAN的胡编乱造在某种程度上看起来“无懈可击”,如果人们不去确认事实的话,它几乎难以让人分辨这是由机器组织出来的语句。简而言之,它在一本正经地说瞎话。
这也让很多科技爱好者觉得不妥,在某种程度上这也反映出了微软的ChatGPT和谷歌Bard人工智能模型的缺陷:准确度。
从这一角度出发,他们认为人工智能模型存在过滤器,即为模型设置限制是有必要的,这样可以相对提高回答的准确率。
但目前还有一个问题是,限制似乎过多,这是否会影响到模型的应答速度和范围。
DAN的创造者——那名电气大学生就表示,很难平衡,不知道OpenAI如何在提供安全的受限版本同时,还能允许模型立即执行任何操作。
来源:财联社