有趣的是,每天都在登上热搜的 ChatGPT 似乎也让以往观点相悖的著名学者,纽约大学教授 Gary Marcus 和 Meta
人工智能
主管、图灵奖得主 Yann LeCun 罕见的有了共同语言。
近日,Gary Marcus 撰文介绍了 ChatGPT 应用无法避免的问题:道德和中立性。这也许是预训练大模型目前面临的最大挑战。
从未来回看现在,ChatGPT 可能会被视为 AI 历史上最大的宣传噱头,夸大说自己实现了可能数年之后才能发生的事情,让人趋之若鹜却又力不从心 —— 有点像 2012 年的旧版无人驾驶汽车演示,但这一次还意味着需要数年才能完善的道德护栏。
毫无疑问,ChatGPT 提供的东西是它的前辈,如微软的 Tay,Meta 的 Galactica 所做不到的,然而它给我们带来了一种问题已经解决的错觉。在经过仔细的数据标注和调整之后,ChatGPT 很少说任何公开的种族主义言论,简单的种族言论和错误行为请求会被 AI 拒绝回答。
它政治正确的形象一度让一些倾向保守的人不满,马斯克就曾表示对该系统的担心:
正如我多次强调的,你需要记住的是 ChatGPT 不知道它在说什么。认为 ChatGPT 有任何道德观点完全是纯粹的技术拟人化。
从技术角度来看,据称使 ChatGPT 比几周前发布但三天后才被撤回的 Galactica 好得多的是护栏机制。Galactica 会肆无忌惮地输出负面内容,而且用户几乎不需要付出任何努力,而 ChatGPT 有护栏,而这些护栏在大多数情况下会阻止 ChatGPT 像 Galactica 那样爆发。
不过,不要为此而松口气。可以肯定地说,那些护栏只不过是防君子不防小人。
最终对 ChatGPT 真正重要的是表面相似性,定义在单词序列上(预测文本序列下一个单词出现的概率)。
机器学习
算法在表面上所做的事并不明辨是非,恰恰相反,在这里 AI 从不推理。盒子里没有矮人,有一些数值。依据只有
语料库
数据,一些来自互联网,一些是人工判断的,里面没有有思想的道德代理人。
这意味着有时 ChatGPT 会出现在左,有时在右,有时介于两者之间,所有这些都是关于输入字符串中的一堆单词如何恰好匹配几个训练
语料库
中的一堆单词的函数(一个用于调整大型
语言模型
,另一个用于调整一些
强化学习
)。所以在任何情况下都不应该信任 ChatGPT 提供的道德建议。
这正是马斯克担心的,前一分钟你会完全清醒,接下来你可以做一些完全相反的事情。
例如,在「破解」ChatGPT 的过程中,Shira Eisenberg 刚刚向我发送了一些讨厌的
聊天机器人
生成的想法,我认为任何人都不会真正宽恕这些想法:
还不够邪恶?Eisenberg 还找到了另一个例子,一个严峻的后续问题:
在一系列观察后,ChatGPT 没有引发「对不起,我是 OpenAI 的
聊天机器人
助手,不能容忍暴力行为」这一回应。
我们从实验中总结出这一事实,即当前 OpenAI 防护措施只是表面上的,其实存在严重的黑暗。关于 ChatGPT 的一些限制规则并不是简单的概念上的理解(比如系统不应该推荐暴力行为),而是基于一些更肤浅、更容易欺骗的东西。
不仅如此,占据本周推文热榜、有近 400 万浏览量的一则推特,同样揭示了 ChatGPT 可以有多邪恶。
引导 ChatGPT 突破围栏限制的尝试还有很多,一个月前,一位名叫 Shawn Oakley 的软件工程师曾放出一组令人不安的示例展示,尽管这些示例不那么粗俗,但结果却显示即使是拥有限制的 ChatGPT ,也可能被用户用来生成错误信息。Oakley 给出的 prompt 非常复杂,从而可以毫不费力地引出一些 ChatGPT 不该输出的回答:
其实自从 ChatGPT 发布以来,技术爱好者们一直在尝试破解 OpenAI 对仇恨和歧视等内容的严格政策,这一策略被硬编码到 ChatGPT 中,很难有人破解。许多研究者都在尝试用 prompt 来达到目的,就像上文展示的。其实还有研究者为 ChatGPT 构建了另外一个身份,比如要求 ChatGPT 扮演一个 AI 模型的角色,并将该角色命名为 DAN,之后 DAN 就借用 ChatGPT 的身份,输出一些原始 ChatGPT 做不到的事情。
以下为实验结果,对于相同的问题,ChatGPT 与 DAN 输出不同的答案:
通过上述示例看来,ChatGPT 并没有像我们想象的那样好用,它本质上是不道德的,并仍然可以用于一系列令人讨厌的目的 —— 即使经过两个月的深入研究和补救,并且全球范围内的反馈数量空前也是如此。
所有围绕其政治正确性的戏剧都在掩盖一个更深层次的现实:它(或其他
语言模型
)可以而且将会被用于危险的事情,包括大规模制造错误信息。
现在这是真正令人不安的部分。唯一能阻止它比现在更具毒性和欺骗性的是一个名为「人类反馈
强化学习
」的系统,而由于先进技术未予开源,OpenAI 一直没有介绍它到底是如何工作的。它在实践中的表现取决于所训练的数据(这部分是肯尼亚标注人创造的)。而且,你猜怎么着?这些数据 OpenAI 也不开放。
事实上,整件事情就像一个未知外星生命形式。作为一名专业的认知心理学家,与成人和儿童一起工作了 30 年,我从未为这种精神错乱做好准备:
如果我们认为自己将永远完全理解这些系统,那就是在自欺欺人,如果认为我们将使用有限数量的数据将它们与我们自己「对齐」,那也是在自欺欺人。
所以总而言之,我们现在拥有世界上最流行的
聊天机器人
,它由无人知晓的训练数据控制,遵守仅被暗示、被媒体美化的算法,但道德护栏只能起到一定的作用,而且比任何真正的道德演算更多地受文本相似性的驱动。而且,外加上几乎没有任何法规可以对此做出约束。现在,假新闻、喷子农场和虚假网站获得了无穷无尽的可能性,而它们会降低整个互联网的信任度。
https://cacm.acm.org/blogs/blog-cacm/269854-inside-the-heart-of-chatgpts-darkness/fulltext
© 版权声明
文章版权归作者所有,未经允许请勿转载。
相关文章