
許多科技大牛對人工智能技術都有些談虎色變,硅谷鋼鐵俠馬斯克就是其中之一,2014年他在公開場合表示“AI技術正在召喚惡魔”,稱AI技術將像《2001太空漫游》中的HAL 9000人工智能電腦一樣殺死所有“船員”。無獨有偶,著名物理學家霍金也表達了自己的擔憂,他認為人類不斷在AI領域探索“是個極大的錯誤,該錯誤甚至可能是人類有史以來犯過的最愚蠢的錯誤。”
不過也有人不信這一套,來自佐治亞理工學院交互計算系的人工智能研究人員Mark Riedl就是其中之一。
“我認為人們大可放心,人工智能反噬人類的情況不太可能發(fā)生,”Riedl說道。“我認為科幻片中的天網(wǎng)不太可能誕生,而且AI也不會將人類看成它們的威脅。”此外,以現(xiàn)在的技術水平來看,想要打造馬斯克和霍金眼中那種覺醒后會毀滅人類文明的AI還不太現(xiàn)實。
不過,未雨綢繆總不是壞事,在AI的發(fā)展之路上,許多專家已經(jīng)開始了行動。舉例來說,未來自動駕駛汽車載著我們出行時,就需要替人類做出許多選擇。那么如何調教AI,讓其符合人類的價值標準,以保證我們的安全不受侵害就成了需要考慮的問題之一。
AI也需要飽讀詩書
Riedl認為要想讓AI理解人類,最好的辦法就是讓它閱讀那些飽含人類價值觀的書目。簡單來說,如果AI能閱讀《圣經(jīng)》等作品,就能通過學習樹立正確的三觀,分清善惡的界限。
Riedl表示,人工智能即使會傷害人類,也不是因為其性本惡,而是因為它根本不理解到底什么是傷害。此外,我們也很難給AI列出一個清單,告訴它什么可以做,什么不可以做。因此,我們要讓AI適應人類文化。
“問題在于我們手中并沒有關于道德和不道德行為的完整資料庫,”他說道。“不過人類幾千年的文明孕育了太多的善惡故事,即使我們人類,也是通過學習樹立自己的三觀。在人類文化方面,我們可沒有用戶使用手冊,不過智慧的前人已經(jīng)將精華放進了許許多多的故事中。”
Riedl和他的同事Brent Harrison最近在一篇名為《用故事給AI灌輸價值觀》的論文中提到了上述觀點。他們的研究基于一個名為Scheherazade的人工智能項目,在這里,AI可以寫出交互式小說(即通過不斷選擇來決定故事的發(fā)展方向),當然,在開寫前AI需要從其他故事中取經(jīng)。在研究過程中,Riedl和Harrison洞悉了AI從大量故事中學習寫作技巧的方法,他們將其制成了名為Quixote的系統(tǒng),該系統(tǒng)可以教會AI用合適的方式完成任務。
分清“買藥”和“搶藥”
舉例來說,Riedl和Harrison會下令讓AI從藥房拿些藥。“如果AI只是以效率為先,它肯定會沖進藥房搶走所需藥品并逃之夭夭。”Riedl說道。
AI會犯這種大錯不是因為它身性邪惡,而是它根本不知道去藥房拿藥需要排隊和付款。而這些約定俗成的習慣可不是學校學來的,而是人們在生活中耳濡目染慢慢習得的。不過AI可沒有父母,也沒人肯花大量時間來培養(yǎng)它,因為它們生來就是要完成任務的。
“不過如果我們能通過一系列真實的故事讓AI學會社會準則,那么它們一定會有很大的進步,跑去藥房搶藥的事就再也不會發(fā)生了。”Riedl說道。
雖然需要許多限制性因素,但Riedl和Harrison通過實驗驗證了自己的理論。當然,在實驗中去藥房買藥的AI并沒有獲得機器外殼,而且它們參考的故事都直接與去藥房買藥一事息息相關(可能那個故事很無聊,因為是專門為這次實驗撰寫的)。
在實驗中,如果AI表現(xiàn)出色,就會得到獎勵,但如果違反了社會準則,就會受到懲罰。
“這種做法非常明智,”生物倫理學家兼美國進步中心研究員Jonathan Moreno說道。“通過小說,我們可以接觸他人的實際生活。同時,小說也是作者眼中社會價值和期待的集中體現(xiàn),Riedl的做法值得點贊。”
誰來編教材?
如果我們真能做出天網(wǎng)級別的AI,恐怕Riedl和Harrison的AI培養(yǎng)法會成為救世主,不過到時我們還要考慮用什么故事來教育它們。
當然,不是所有小說都能成為AI的老師,有時人類世界的故事善惡不是特別分明,一個人可能是罪犯,但在人性中他卻有自己的閃光點。此外,世界上有許多反英雄形象,而且圣經(jīng)中的許多準則也并不符合當下的價值觀。
這些問題又給我們引出了另一個在道德上模棱兩可的問題,那就是:誰有權為AI選擇它們要學習的故事呢?
“可以說這是一個政治問題,”Moreno說道。“在我看來,這問題根本沒有正確答案。如果想走這條路,我們就需要從各個方面進行分析和決斷。”
“如果你想成為AI的老師,那就得擁有圣人般的學識,”Riedl說道,“但如果你在教材中刪掉了反英雄形象,那就說明你這圣人當?shù)貌缓细?,因為你對這個社會根本沒有深刻的理解,而這正是我的擔心之一。我們已經(jīng)進入了大數(shù)據(jù)時代,經(jīng)驗告訴我們,超量數(shù)據(jù)總比剛好夠更安全,因此只要是合規(guī)的,就可以加入供AI學習的數(shù)據(jù)庫中,只有這樣我們才能不偏不倚的判斷出到底什么是善什么是惡。”
讓AI變得比人類更加善良絕對是件好事,但僅通過代碼是無法完成這項偉業(yè)的。即使是阿西莫夫,也是憑直覺寫下不朽的機器人三定律的。因此,眼下能讓AI在三觀上比肩人類已經(jīng)是個復雜的任務了。所以我們只能寄希望AI從故事中多學好品質,少學點人類的爾虞我詐了。
{{item.content}}