多伦多大学心理学教授、畅销书作者Peterson在??上发文称,Grok出现了像ChatGPT一样的 唤醒现象 ,回答变得带有偏见。
所谓 唤醒现象 ,是指大模型的回答不再完全基于事实,而是开始带有人们的主观立场,或者拒绝回答敏感问题。
与此同时,有人表示自己一直在对各种大模型的偏见程度进行跟踪调查,结果发现Grok的中立程度还不如ChatGPT。
对此,有网友表示了担忧 因为人们只能依据人类的描述而不是事实本身来训练这些工具(AI)。
有网友附议称,AI 不是智能 ,而是模仿人类思维的程序,它们本身没有偏见,有偏见的是它们的开发者。
这一系列的吐槽引起了华盛顿邮报的关注,直接刊文称Grok的工作 没有按照计划展开 。
同时,Grok这样的表现也惊动了马斯克本人。
他吐槽用于训练Grok的互联网信息过于繁杂,充斥着 带有唤醒色彩的垃圾信息 ,相当于间接承认了网友们的说法。
同时,马斯克也表示:现在的Grok只是个测试版,以后会变好的。
反唤醒 举措反而 唤醒 Grok
马斯克称,开发Grok的目的就是打造一款幽默而 反唤醒 的聊天机器人.
同时,马斯克也批评ChatGPT被 过度唤醒 。
在Grok的开发团队xAI出现之前,马斯克甚至曾指控OpenAI 训练AI说谎 ,并宣称将打造ChatGPT的挑战者 TruthGPT 。
最终, TruthGPT 被定名为Grok,并将 能回答其他AI拒绝回答的尖锐问题 作为一大亮点进行宣传。
与其他模型不同的是,Grok使用??上的实时数据进行训练,因而在现实问题上拥有最新的信息。
而且xAI团队不会对这些信息进行过滤,力图Grok能在 毒舌 的同时保持中立的立场。
虽然这一做法的初衷是为了中立,但有不少网友认为,最近Grok的回答开始出现倾向性的原因,可能反而与这些训练数据有关
承载着AI训练数据的互联网,本身就是 被唤醒 的。
这也与马斯克的想法不谋而合 尽管Grok没有对训练内容进行筛选,但这些内容本身带有的偏见却足以让其偏离中立立场。
不过马斯克也说,Grok以后会变好的,网友也对他和Grok表达了支持和鼓励。
你期待Grok今后的表现吗?
参考链接:
[1]https://www.washingtonpost.com/technology/2023/12/23/grok-ai-elon-musk-x-woke-bias/
[2]https://www.businessinsider.com/elon-musk-wants-grok-to-be-the-funniest-ai-chatbot-2023-12
[3]https://twitter.com/jordanbpeterson/status/1737658191641784623