中立、敢于直言,是“馬斯克版ChatGPT”Grok一直在宣傳的賣點。
但近網友們發(fā)現它的回答越來越帶有傾向性,忍不住發(fā)帖吐槽,還@上了馬斯克本人。
用吐槽者自己的話說,Grok開始變得越來越“ChatGPT化”了。
多倫多大學心理學教授、暢銷書作者Peterson在??上發(fā)文稱,Grok出現了像ChatGPT一樣的“喚醒現象”,回答變得帶有偏見。
所謂“喚醒現象”,是指大模型的回答不再完全基于事實,而是開始帶有人們的主觀立場,或者拒絕回答敏感問題。
與此同時,有人表示自己一直在對各種大模型的偏見程度進行跟蹤調查,結果發(fā)現Grok的中立程度還不如ChatGPT。
對此,有網友表示了擔憂——因為人們只能依據人類的描述而不是事實本身來訓練這些工具(AI)。
有網友附議稱,AI“不是智能”,而是模仿人類思維的程序,它們本身沒有偏見,有偏見的是它們的開發(fā)者。
這一系列的吐槽引起了華盛頓郵報的關注,直接刊文稱Grok的工作“沒有按照計劃展開”。
同時,Grok這樣的表現也驚動了馬斯克本人。
他吐槽用于訓練Grok的互聯網信息過于繁雜,充斥著“帶有喚醒色彩的垃圾信息”,相當于間接承認了網友們的說法。
同時,馬斯克也表示:現在的Grok只是個測試版,以后會變好的。
“反喚醒”舉措反而“喚醒”Grok
馬斯克稱,開發(fā)Grok的目的就是打造一款幽默而“反喚醒”的聊天機器人.
同時,馬斯克也批評ChatGPT被“過度喚醒”。
在Grok的開發(fā)團隊xAI出現之前,馬斯克甚至曾指控OpenAI“訓練AI說謊”,并宣稱將打造ChatGPT的挑戰(zhàn)者“TruthGPT”。
終,“TruthGPT”被定名為Grok,并將“能回答其他AI拒絕回答的尖銳問題”作為一大亮點進行宣傳。
與其他模型不同的是,Grok使用??上的實時數據進行訓練,因而在現實問題上擁有新的信息。
而且xAI團隊不會對這些信息進行過濾,力圖Grok能在“毒舌”的同時保持中立的立場。
雖然這一做法的初衷是為了中立,但有不少網友認為,近Grok的回答開始出現傾向性的原因,可能反而與這些訓練數據有關——
承載著AI訓練數據的互聯網,本身就是“被喚醒”的。
這也與馬斯克的想法不謀而合——盡管Grok沒有對訓練內容進行篩選,但這些內容本身帶有的偏見卻足以讓其偏離中立立場。
不過馬斯克也說,Grok以后會變好的,網友也對他和Grok表達了支持和鼓勵。
你期待Grok今后的表現嗎?
參考鏈接:
[1]https://www.washingtonpost.com/technology/2023/12/23/grok-ai-elon-musk-x-woke-bias/
[2]https://www.businessinsider.com/elon-musk-wants-grok-to-be-the-funniest-ai-chatbot-2023-12
[3]https://twitter.com/jordanbpeterson/status/1737658191641784623
本文鏈接:http://www.www897cc.com/showinfo-17-53970-0.html馬斯克回應Grok失控:都被網友帶壞了
聲明:本網頁內容旨在傳播知識,若有侵權等問題請及時與本網聯系,我們將在第一時間刪除處理。郵件:2376512515@qq.com