跳到主要內容
訪客人次:793897
:::
訪客人次:793897
:::
:::

研究AI人工智慧自相學習攻略有助於了解AI行為

https://www.technologyreview.com/s/611069/how-can-we-be-sure-ai-will-behave-perhaps-by-watching-it-argue-with-itself/

 

OpenAI是由幾個矽谷公司合作創立的非營利組織,包括Y Combinator創辦人Sam Altman, LinkedIn的 Reid Hoffman,Facebook的 Peter Thiel,以及特斯拉(Tesla)與Space X創辦人Elon Musk。研究團隊認為未來將可預見AI人工智慧系統相互攻略、自我強化(也就是說AI將擁有自我的意識) 。

 

Elon Musk等人曾發表對於AI的奇點理論(參見 “人工智能核心的黑暗秘密” ),認為AI系統可能會像電影「人造意識 (Ex Machina)」和「雲端情人( Her)」的電影劇情般,在某種情況下背叛人類,但該論點仍需要有更多的研究論證。

 

OpenAI早在先前研究中,發現AI人工智慧系統自動操作/自我訓練,有時會產生無法預期的行為。因此在部落格AI safety via debate文章中,提出了一項新的技術,該方法是先訓練人工智慧系統互相對話進行辯論,然後由人判斷輸贏。我們認為這種方法最終可以幫助我們訓練 AI 系統去執行人類認知能力難及的任務,同時執行的結果仍然可符合人類的價值觀。以電腦遊戲為例,玩家如何擊敗官方的巧思,將遊戲玩到無人可及的境界,在某些情況下需要用人力來監督AI的訓練過程,但是未來如果是進行極為複雜的任務, 研究人員建議可讓兩個AI系統一起執行,利用 AI 自身來輔助監督,透過辯論過程自我學習及修復該缺陷。最後由人們針對辯論過程進行評判,如此一來,即使AI系統對問題有比人類更深層次的理解,人類也可以去判斷哪個AI系統有更好的論點(類似於專家和證人爭辯來說服陪審團)。此研究目的在於避免AI系統遭駭客入侵,演變出有害或不道德的行為模式。此外,要更進一步研究較為複雜的辯論實驗,使用比數字更加精細複雜的圖片,比如貓和狗的圖片。更複雜的圖像可能要用到一些自然語言識別或常識推理,目前尚未使用機器學習來進行試驗。 但研究團隊針對這樣的實驗建置了一個測試網站,讓人類可以扮演法官和辯手的角色來參與測試研究。
 

這項工作現處於萌芽期,但未來有望實現。研究人工智慧倫理問題的杜克大學研究員Vincent Conitzer表示,「創造一個可以解釋決定的AI系統是具有挑戰性的研究過程。如果成功,就可以大大地促進對AI使用的可靠度。」 但也有人認為這樣的概念研究存在矛盾點。卡內基美隆大學計算機科學教授Ariel Procaccia指出,要讓AI自相辯論的概念,是本末倒置的,為了以一種人類法官可以理解的方式來討論有價值的問題,首要做的是要讓機器人對人類價值觀有深入理解。 另外,麻省理工學院媒體實驗室的研究員Iyad Rawan也提到,「如何使自然語言的論證自動化,這仍然是一個有待解決的問題。」

 

更新日期 : 2018/06/01