7月31日消息,據(jù)國外媒體報道,特斯拉首席執(zhí)行官埃隆•馬斯克(Elon Musk)曾表示,人工智能(AI)是最大的風險。幾天后,F(xiàn)acebook關閉了一個“失控”的人工智能系統(tǒng),因為聊天機器人開始用他們自己的語言說話,這些語言使用英語單詞,但人類無法理解。[page]
上面的內(nèi)容,不是我睡著了,而是臉書在鍵盤上滾過的字。這是兩個“失控”AI 自己發(fā)明的對話語言。
[page]
本來只是一個AI項目研發(fā)中出現(xiàn)的再正常不過的bug,被整改也是因為訓練結果背離了開發(fā)者的期望。然而,這個小事故卻被鋪天蓋地的媒體報道過度解讀成了一段堪比“終結者”的機器失控,以及人類為了自我解救展開的“屠殺”。Elon Musk和小扎剛就AI悲觀論干完一架,這件小事也就順勢引起了一眾吃瓜群眾的恐慌。[page]
那么,這場鬧劇的背后究竟發(fā)生了什么——Facebook的機器人是否真的學會了新語言?他們的研究出了什么問題?而Facebook又是為什么叫停了這一項目呢?機器人真的在通過這些人類看不懂的語言密謀嗎?[page]
之所以這個機器人暗號看起來“蠢蠢的”,是因為Facebook科研團隊在開發(fā)前期沒有為機器人設置正確的“獎勵”,鼓勵他們說人話。說白了,這就是一個bug,一個error。這樣的錯誤在語言模型初學者的嘗試中十分常見,只不過這次出現(xiàn)在了Facebook這樣技術背景雄厚的公司上,這一錯誤就被想象成了機器人的“早慧”。[page]
那為什么會出現(xiàn)“to me”和“i”的大量重復,而不是其他詞匯的重復呢?
這是語言模型本身的特性決定的。在這一概率模型下,如果沒有合適的“獎勵”引導,機器人會選擇更常用的詞匯,來降低犯錯的風險。顯然,“to me”和“i”在英語中出現(xiàn)的頻率是相當高的。機器人不斷重復“to me”和“i”就是繞進了一個循環(huán)。
Facebook是否因恐慌AI過度智能而“謀殺”了這個機器人?很顯然,答案是否定的。Facebook此次整改這一項目正是因為他們意識到了其中的錯誤。
“我們的目標是設計出可以和人類進行對話的砍價機器人,而不是僅僅能夠和自身對話的機器人。”Facebook的研究者Mike Lewis這樣說道。
另外,F(xiàn)acebook也并沒有叫停這一項目。他們只是去重新訓練機器人了,讓機器人的對話更符合英語文法。
AI可能帶來的危險我們當然應該警惕。然而,面對當前的AI發(fā)展成果,比起吸引眼球和以訛傳訛,我們還是該更實事求是一些。
{{item.content}}