作者:admin 點擊量:967
人工智能存在信任問題。我們依靠AI越來越多,但它還沒有贏得我們的信任。
例如,以Autopilot模式駕駛的特斯拉汽車在撞擊停止車輛方面有著令人不安的歷史。亞馬遜的面部識別系統(tǒng)在很多時候都有效,但當(dāng)被要求將所有535名國會議員的面孔與2.5萬張公開逮捕照片進(jìn)行比較時,它發(fā)現(xiàn)了28個錯誤匹配。一項旨在審查亞馬遜求職者的計算機(jī)程序被發(fā)現(xiàn)系統(tǒng)地歧視婦女。每個月,都會有新的AI弱點被發(fā)現(xiàn)。
現(xiàn)在的問題不在于今天的AI是否需要做得更好,而是今天的AI需要嘗試做一些完全不同的事情。
特別是,我們需要停止構(gòu)建那些只是用來更好檢測數(shù)據(jù)集統(tǒng)計模式(通常被稱為深度學(xué)習(xí)的方法)的計算機(jī)系統(tǒng)通常使用稱為深度學(xué)習(xí)的方法,開始構(gòu)建能夠掌握時間、空間和因果關(guān)系三大基本要素的計算機(jī)系統(tǒng)。
現(xiàn)今的AI系統(tǒng)對這些概念知之甚少。以時間要素為例,我們最近在谷歌上搜索了“喬治·華盛頓有沒有電腦?”,這是一個答案需要在時間框架內(nèi)將兩個基本事實(華盛頓生活時期、計算機(jī)發(fā)明時期)聯(lián)系起來的問題。谷歌的前10個搜索結(jié)果都沒有給出正確答案。搜索結(jié)果甚至沒有真正解決這個問題。排名最高的鏈接是《衛(wèi)報》關(guān)于瑪莎·華盛頓電腦肖像的新聞報道。
而谷歌的Talk to Books也沒能做到更好,這是一個旨在通過從龐大的文本數(shù)據(jù)庫提供相關(guān)段落來回答問題的AI項目。它提供了20個段落,其中包含大量事實,其中一些涉及喬治·華盛頓,另一些涉及計算機(jī)的發(fā)明,但兩者之間沒有任何有意義的聯(lián)系。
而涉及空間和因果關(guān)系的概念時,AI的情況更糟。即使是一個年幼的孩子,第一次遇到奶酪刨絲器,斗可以弄清楚為什么它有鋒利邊緣的孔,哪些部分可以讓奶酪掉落,哪些部分是你可以用手指抓住的等等。但現(xiàn)存的AI系統(tǒng)沒有一個可以正確理解對象的形狀如何與其功能相關(guān)。機(jī)器可以識別出什么是物體,但不能識別物體的物理特征如何與其潛在的因果效應(yīng)相對應(yīng)。
對于某些AI任務(wù),這種主導(dǎo)數(shù)據(jù)相關(guān)的方法可以完美勝任。你可以輕松地訓(xùn)練深度學(xué)習(xí)機(jī)器,比如識別暹羅貓的照片和Derek Jeter的照片,并區(qū)分這兩者。這就是為什么這樣的程序適用于自動照片標(biāo)記。但是他們沒有實現(xiàn)概念深度。例如,如果有很多不同的暹羅貓,但只有一個Derek Jeter,因此一張顯示兩只暹羅貓的照片并不顯眼,而一張照片顯示兩個Derek Jeters被篡改了。
在很大程度上,這種理解的失敗是像管家Rosie這樣的通用機(jī)器人仍然是一種幻想的原因。如果Rosie無法理解世界如何運(yùn)作的基礎(chǔ)知識,我們就不能信任她。
沒有時間、空間和因果關(guān)系的概念,理解許多常識是不可能的。例如,我們都知道任何特定動物的生命始于它的誕生并以它的死亡結(jié)束;它在生命中的每一刻都占據(jù)著空間中某個特定的區(qū)域;那兩只動物通常不能同時在同一個空間,兩只動物可以在不同的時間在同一個空間等等。
我們不必明確地被教授這種知識。這是一套背景假設(shè),即概念框架,使我們對世界的所有其他思考成為可能。
然而很多AI從業(yè)人員很少去在他們的機(jī)器中構(gòu)建這樣的背景假設(shè)。我們并不是說這樣做很容易,相反,這是一個重大的理論和實踐挑戰(zhàn)。但如果沒有它,我們就不會獲得復(fù)雜的計算機(jī)智能。
如果我們建造具有豐富概念理解的機(jī)器,其他一些擔(dān)憂將會消失。例如,哲學(xué)家尼Nick Bostrom曾想象過一個強(qiáng)大的AI機(jī)器,被指示制作回形針,但他不知道何時停止,并最終將整個世界——包括人類——變成紙夾。
在我們看來,這種反烏托邦的猜測在很大程度上源于對今天無意識AI系統(tǒng)的思考。如果你只能計算統(tǒng)計相關(guān)性,則無法概念化損害。但知道時間、空間和因果關(guān)系的AI系統(tǒng)是可以編程以遵循更一般指示的事物,例如“機(jī)器人不會傷害人類,或通過不作為,允許人類受到傷害”