第1章 如何創造可信的ai(簡)(1 / 2)

書名:《如何創造可信的AI》

人工智能大牛繪製的AI未來發展路線圖。

本書的作者是美國人蓋瑞•馬庫斯和歐內斯特•戴維斯,兩位都是紐約大學的教授,也是人工智能領域的一流專家。馬庫斯還是兩家人工智能公司的首席執行官和創始人。

一、 AI技術會犯什麼錯誤,有哪些局限性?

2016年,一名特斯拉車主啟動了自動巡航係統後,便沉湎在電影《哈利波特》之中,一輛白色的箱車違反交通規則,企圖橫穿高速公路調頭,自動巡航係統不能分辨前方的白色物體是什麼,一再提醒車主轉入人工駕駛,但車主沒有意識到係統的提示,汽車一頭紮進了箱車的車底。2017年,不少醫院停止了與IBM的合作,因為沃森給出的一些建議“不安全、不正確”,甚至“結果無法接受”。鑒於沃森的遭遇,Facebook的M計劃也在2018年叫停。

為什麼人工智能答題和下棋那麼厲害,而在開車、疾病診斷、居家服務上就不行了呢?

目前在AI成功的例子中,設計初衷都限定在狹隘的專業領域內,例如沃森在電視比賽中回答的隻是針對性的問題;Alpha Go更是局限在19X19的棋盤內。這些AI是狹義的AI,不是廣義的AI。廣義的AI是通用的人工智能,有能力靈活地適應疆域無限的世界,能夠綜合各方麵的信息做出判斷,因此,開拓可以信賴AI的關鍵,是要在人類心智的內在結構中尋找線索。

從應用者的角度看,存在過度信任AI的風險。

從設計者角度看,追求完美的願望會給AI的應用帶來風險。設計者過分控製的欲望也會帶來隱患。此外,設計目標偏差也會帶來風險。

更多的風險來自AI技術本身。所有的AI設備或軟件都必須經過訓練才能使用。訓練有兩種,一種由設計者訓練好再交付用戶,另一種是讓用戶自行訓練,以契合用戶的不同需求。幾乎所有事先訓練好的設備都有很強的針對性,從而導致過度依賴數據,不能適應環境變化,一旦環境出現異常,就會失去控製能力。

很多人將規避這些風險寄托在深度學習上。然而,深度學習真的能解決這些問題嗎?

深度學習可以追溯到誤差反向傳遞算法和分層模式識別。誤差反向傳遞算法簡稱BP算法,是20世紀70年代提出的人工神經網絡的算法。這種算法首先利用輸出信號與理想信號之間的偏差來調整最後一層神經元的權值,然後再調整前一層神經元的權值,權值調整逐層向輸入層發展。因為順序是從輸出端到輸入端,因此叫反向。

分層模式識別是生理學家大衛• 休伯爾和托爾思滕• 維澤爾發現的一種生理現象,他們發現不同的視覺神經元在圖像識別中擔任不一樣的角色,有的辨識輪廓,有的辨識內容,而識別複雜內容的過程要由多個神經元協調完成。後人將這種多層結構引入了神經網絡,還將圖像識別中非常有效的卷積算法用來完成計算,神經元功能分層與卷積算法極大地減少了權值修正時間,加快了收斂速度。

首先,要得到成功的應用,深度學習係統必須經過大量的學習,也就是說訓練樣本必須充分。然而在很多實際應用中很難找到那麼多的訓練樣本,樣本一少就會影響係統的工作成效。