Michael Jordan:當下的AI其實都是偽“AI”

NO IMAGE
1 Star2 Stars3 Stars4 Stars5 Stars 給文章打分!
Loading...

摘要: Michael Jordan認真的解讀當下的AI到底是什麼?

人工智慧(AI)是未來的趨勢,這句話是技術人員、學者、記者和風險投資家一致贊同的。如同從技術學術領域跨越到普遍行業的許多詞語一樣,在使用這些詞語的時候都存在很大的誤解。我們這個時代的最想在某種程度上看到了矽片中的智慧的出現,它與我們自己的娛樂相媲美,激勵我們並以同樣的方式恐嚇我們。

關於當今的時代,有一種不同的敘述。考慮下面的故事,它涉及人類、計算機、資料和生死決定,但這個故事的重點不在於矽片中的幻想。當我的妻子在14年前懷孕時,我們進行了超聲波檢查。房間裡有一位遺傳學家,她指出胎兒心臟周圍有一些白色斑點。這些是唐氏綜合徵的標誌,她指出,現在你的患病風險已經上升到了1/20。她進一步告訴我們,他們可以通過羊膜穿刺術檢視胎兒實際上是否具有唐氏綜合徵的基因改變。但是羊膜穿刺術風險很大,在手術中殺死胎兒的風險大約為1/300。作為統計學家,我決定找出這些數字來自哪裡。在研究的過程中,我發現一個統計分析,它在英國已經進行了十年,這些反映鈣積聚的白色斑點確實是唐氏綜合症的預測指標。但我也注意到,在我們的測試中使用的成像機器比英國研究中使用的機器每平方英寸多幾百個畫素。我回過頭來告訴遺傳學家,我相信這些白斑可能是假陽性,它們實際上是“白噪聲”。她說:啊,這就解釋了為什麼我們這幾年唐氏綜合徵診斷的增加了。

我們沒有做羊膜穿刺術,幾個月後出生了一個健康的女孩。但是這一事件讓我感到困擾,我確信全世界每天有成千上萬的人得到這種診斷結果,其中許多人選擇了羊膜穿刺手術,而且一些嬰兒可能也因此造成不必要的死亡。其實這個問題不僅僅與資料分析本身有關,而且與資料庫研究人員稱之為“來源”的問題有關。

作為一名電腦科學家,我首先想到的是建立一種推理和決策系統所需的原則,將電腦科學與統計學相結合,來解決一些現實中存在的問題。不僅在醫療領域,而且要在商業、交通和教育等領域,這些原則的發展至少與建立AI系統的原理一樣重要。

無論我們是否能夠接受“智慧”,我們​​都面臨著一個現實:人工智慧正在改變我們的生活。儘管有些人認為這是屈從於“人工智慧”的創造,但也可以用更溫和的方式去看待它,把它當稱一個新的工程分支一樣。就像過去幾十年的土木工程和化學工程一樣,這門新學科的目標是收集幾個關鍵思想的力量,為人們帶來新的能力,並且安全地做到這一點。鑑於土木工程和化學工程建立在物理和化學之上,相應的這個人工智慧是建立在過去的給予的基礎上­——“演算法”、“資料”等等。

不幸的是,我們並不善於預測下一個正在出現的嚴重缺陷。我們缺少的是一個具有分析和設計原理的工程學科。

目前關於這些問題的公開對話過於頻繁地使用“AI”作為智慧萬用字元,這使得很難推斷新興技術的範圍和後果。所以請讓我們從更仔細地考慮最近和歷史上用“AI”來指稱什麼。

今天大多數被稱為“AI”的東西,特別是在公共領域,都被稱為“機器學習”(ML)。在過去的幾十年裡,ML是一個演算法領域,它將來自統計學、電腦科學和許多其他學科的想法融合在一起,設計演算法來處理資料,做出預測並幫助做出決定。就對現實世界的影響而言,ML是真實的。事實上,ML在20世紀90年代初期就變得非常清晰了,到世紀之交,亞馬遜等具有前瞻性的公司已經在他們的業務中使用了ML,從而解決了欺詐行為中的關鍵任務:後端問題檢測和物流鏈預測以及建立創新的面向消費者的服務,如推薦系統。隨著資料集和計算資源在接下來的二十年中快速增長,很明顯,ML不僅為亞馬遜服務,任何公司的決策都開始與ML相關聯。“資料科學”這個短語開始被用來指代這種模型,反映了ML演算法專家需要與資料庫和分散式系統專家合作建立可擴充套件的、強大的ML系統。

從歷史上看,“人工智慧”這個詞在1950年代後期被創造出來,指的是在軟體和硬體中實現具有人類智慧的實體的強烈願望。我們使用“模仿人類智慧”一詞來指代這一願望,強調人工智慧實體似乎應該是我們中的一員,至少是在精神上或者身體上。雖然運籌學,統計學,模式識別,資訊理論和控制論等相關學術領域已經存在,並且常常受到人工智慧的啟發,但這些領域可以說是集中在“低層次”訊號和決策上。比如松鼠能夠感知它所居住的森林的三維結構,並在其分支之間跳躍,對這些領域是鼓舞人心的。“人工智慧”旨在集中精力於不同的事物,例如:人類“理性”和“思考”的“高階”或“認知”能力。然而,60年後,高階推理和思想仍然難以捉摸。目前被稱為“人工智慧”的發展主要出現在與較低階別模式識別和運動控制相關的工程領域以及統計學領域,主要側重於找到資料模式並進行有根據的預測,假設和決定的測試。

事實上,20世紀80年代早期由David Rumelhart發現的著名的“反向傳播”演算法,現在被視為所謂“AI革命”的核心,最早出現在20世紀50年代的控制理論領域和20世紀60年代,其早期應用之一是優化阿波羅太空船在朝向月球時的推力。

自20世紀60年代以來,人工智慧取得了很大進展,但它可以說並不是來自追求人性化模擬人工智慧。相反,就像阿波羅太空船一樣,這些想法常常隱藏在幕後,儘管對公眾不可見,但文件檢索、文字分類、欺詐檢測、推薦系統、個性化搜尋、社交網路分析、診斷A / B測試等領域的研究和系統建設取得了重大成功。

人們可以簡單地同意將所有這些稱為“AI”,但這樣的標籤可能會讓統計學研究人員感到意外,這些研究人員醒來時發現自己突然被稱為“人工智慧研究人員”。過去二十年間,訓練AI的願望通常被稱為“智慧增強”(IA),主要是使用計算和資料來建立增強人類智慧和創造力的服務。搜尋引擎可以被看作是IA的一個例子(它增加了人類的記憶和事實的知識),自然語言翻譯(它增強了人類溝通的能力)也是如此。基於計算的聲音和影象生成可以作為藝術家的調色盤和創意增強器。雖然這種服務可能涉及高層次的推理和思想,但目前他們不這樣做,相反他們大多執行各種字串匹配和數字操作,捕獲人類可以使用的模式。

讓我們廣泛構思“智慧基礎設施”(II)學科,即存在一個計算,連線資料和物理實體網路,使人類環境更具有支援性、趣味性和安全性。這種基礎設施開始在交通,醫藥,商業和金融等領域出現,對個人和社會有著巨大的影響。它有時出現在關於“物聯網”的討論中,但是這種想象通常指的是僅僅是將“事物”帶到網際網路上的過程,而不是與能夠分析這些“事物”。

例如,我們可以想象將我們的生活置於一個“社會規模的醫療系統”中,它建立資料流和資料分析流程,位於人體內和周圍的醫生和裝置之間,從而能夠幫助人類診斷和提供護理。該系統將納入身體細胞、DNA、血液檢測、環境、群體遺傳學和關於藥物和治療的大量科學文獻的資訊。它不僅僅關注單個病人和醫生,還關注所有人類之間的關係 ,就像現在的醫學檢測允許在一組人類(或動物)上進行的實驗。這將有助於保持相關性、可靠性。而且,人們還可以預見到這樣一個系統出現的許多問題:涉及隱私問題、責任問題、安全問題等,這些問題應該被視為挑戰,而不是阻礙者。

我們現在遇到了一個關鍵問題:模擬古典人性化人工智慧是面臨這些更大挑戰的最佳選擇還是唯一方法?事實上,最近最受歡迎的ML的成功案例就是人類模仿AI相關的領域,如計算機視覺、語音識別、機器人等。這裡有兩點需要說明,首先,儘管人們不會從閱讀報紙中得知它,但人造模擬人工智慧的成功實際上是有限的,我們距離實現人性化模擬AI還很遙遠。不幸的是,在仿人工智慧AI方面進展甚微的情況下,出現過度誇讚和媒體關注的水平,這在其他工程領域並未出現。

其次,更重要的是,這些領域的成功既不足以解決重要的IA和II問題。為了實現自動駕駛汽車這樣的技術,需要解決一系列工程問題,這些問題可能與人力資源關係不大。整個交通系統(一個II系統)可能會更像目前的空中交通管制系統,而不是目前收集的鬆散耦合的、不具有前瞻性的人類駕駛員技能資訊。因為它比當前的空中交通管制系統複雜得多,特別是在使用大量資料和自適應統計建模來決策時。(地面交通的情況要比空中更負責)

我們不難確定II系統中的演算法和基礎設施挑戰,這些並不是人類模仿AI研究的核心主題。II系統需要管理分散式知識庫,這些而且知識庫正在迅速變化,並且可能會在全球範圍內不連貫。這些系統必須在做出及時的分散式決策時應對雲端相互作用,並且他們必須處理長尾現象,因為我們不具有大量的個人資料。他們必須解決跨行業和競爭性界限分享資料的困難。最後,特別重要的是,II系統必須將諸如激勵和獎勵之類的經濟理念帶入統計和計算基礎設施領域,這些基礎設施將人與對方以及有價物品聯絡起來。諸如音樂,文學和新聞等領域正在呼籲出現這樣的市場,資料分析將生產者和消費者聯絡起來。這一切都必須在不斷演變的社會,道德和法律規範的背景下完成。

當然,經典的人造模擬AI問題仍然值得關注。然而,目前的重點是通過收集資料進行人工智慧研究,部署“深度學習”的基礎設施,以及模仿某些狹義定義的人類技能的系統演示問題。這些問題包括:需要將意義和推理引入進行自然語言處理的系統中,需要推斷和表示因果關係,需要開發計算上易於處理的不確定表示,以及需要開發制定並追求長期目標的系統。

IA也是相當重要的,因為在可預見的將來,計算機將無法與人類相匹配地抽象描述現實世界的情況。我們需要經過深思熟慮的思考和計算機互動來解決我們最緊迫的問題。我們希望計算機能夠觸發新的人類創造力水平,而不是取代人類的創造力。

John McCarthy創造了“人工智慧”一詞,顯然是為了區分他的新興研究議題與諾伯特維納的研究議題。維納創造了“控制論”來指代他自己的智慧系統願景,這一願景與運籌學、統計學、模式識別、資訊理論和控制理論密切相關。很顯然,今天的“人工智慧”的熱度遠遠超過了“控制論”。但我們需要超越麥卡錫和維納的特定歷史觀點。

我們需要認識到,目前關於人工智慧的公眾對話(側重於狹隘的行業子集和狹窄的學術子集),可能使我們面臨AI、IA和II所帶來的挑戰和機遇的風險。

這個風險不是關於實現科幻夢想或超人類機器的噩夢,更多是關於人類理解和塑造技術的需求,因為它在日常生活中變得更加現實和有影響力。此外,在這種理解和塑造中,需要來自各行各業的不同聲音,而不僅僅是技術上的對話。

雖然行業將繼續推動技術發展,但學術界也將繼續發揮重要作用,不僅在提供一些最具創新性的技術理念時,而且來自其他學科的研究人員的觀點也非常重要,特別是社會科學、認知科學和人文科學。

而且,我們應該接受這樣的事實:我們正在建立一個新的工程分支。“工程學”這個術語通常在狹義上被引用,在學術界它通常指的是帶有冷酷無情的機器的泛指,以及人類失去控制的消極內涵。

但,在當今時代,我們有一個真正的機會來設想一些歷史上的新事物 – 一個以人為中心的工程學科。

本文由@阿里云云棲社群組織翻譯。

文章原標題《the-fall-of-rnn-lstm》,

譯者:虎說八道,審校:袁虎。

詳情請閱讀原文

相關文章

人工智慧 最新文章