正文 人工智能模擬不出愛因斯坦(1 / 1)

人工智能模擬不出愛因斯坦

人工智能就像一個科學怪人,你可以從技術的角度說它是一個天才,但也可以從人性的角度說它是一個毀滅人性的東西。智能到底能帶來什麼?

實際上我們已經大規模地開始了信息搜集,但是好在目前基本都是奔著商業去的,還沒有把社會學、心理學、生命科學、政治學、法學這些專家的觀點都放進去。我自己做過幾個大數據的研究,發現每嵌入一個學科的思想時,模型的展現方式是完全不同的。

最可怕的是模擬人性,這不是技術問題,是道德問題。就如克隆出一個人,在技術上沒問題,但在道德上有巨大的風險。

現在可看到的最可怕的機器人能模擬女性思維。我們知道任何一個女性都是一個大數據分析終端,可以迅速把幾個感知點連在一起做出決策,她的特點是情感導向、多信息、非線性、快速決策,而且有更多的感覺。如果把這些放到機器上,大家可以想象後果是什麼。

我有一個非常杞人憂天的考慮:如果我們根據腦科學、生命科學、心理學、社會學、傳播學等等這些理論模型,探討出人類思考的密碼,人類估計就會走向毀滅,因為這本身太可怕了。可是,以現在的速度、計算能力和人類自古以來的好奇心,這事還真有可能出來。

有一本書《過度互聯》給我很大的啟發:過度互聯本身會帶來過度風險。一旦我們的生活跟這些所有的東西聯結在一起,也就是所謂物聯網,這個網絡就綁架我們的一切,帶來整體性安全事件的可能性就會比較大。我們知道紐約大停電造成的影響,也知道日本核電站。論證的時候,誰不說是安全的?所以大家記住,這不是一個人類能夠判斷的問題。一旦形成這種過度的東西,它帶來的風險是非常大的。

過度互聯帶來的另外一個問題,是讓我們喪失與生俱來的能力,我們會被機器裹脅,手的病、胳膊的病……很多病會增加,會帶來社會成本的上升。

在過度互聯中,實際上出現了一個純社會性話題,也就是所謂的社會風險。你會發現,現在在輿論場上能獨立思考的人越來越少,很多人判斷問題都是直線思維,泄憤、侵犯隱私……生活在網絡上時間長了,精神上可能會出現問題,因為你看到的都是不好的事兒,最可怕的是謠言的危害,而現在利用謠言來牟利已成為常態。

人類真的無法避免這件事情嗎?我覺得,人們在規避它,人不可能線性化地去順應這個趨勢。現在非常常見的一種說法是:“離開設備,讓時間靜止一會兒。”未來互聯到一定程度的時候,會有越來越多多的人想讓時間靜止一會兒。就像在人類發展過程中出現的都市化和反都市化,是一致的。人類一定會從一些角度去順應互聯時代的一些基本特征,讓那些美麗的商業模型和不被“記錄”的人性並存。

還有一點,現在中國的數據和世界的數據一樣,都號稱“全”,實際上都是“孤島”。騰訊隻有騰訊的數據,騰訊會有阿裏的數據嗎,會有百度的數據嗎?所以,任何一個數據都是“孤島”,你就無法模擬完整的軌跡。數據產業是一個非常尷尬的產業。我做過900萬用戶、半年的移動互聯網的行為,夠多了,夠大了,但是它是短時間。別忘了,從人性的角度來講,我們做任何一個判斷,實際上是一個長時效果——根據我們自己腦袋裏信息的沉積做出判斷。而數據的尷尬恰恰使得未來出現的模擬人性的這種機器,可能就是幾歲孩子的智商,很難模擬出一個愛因斯坦。

所以,要發揮人工智能的所有能力,讓我們的生活更好,就要控製這個科學怪人的心思,如果不控製涉及人性的部分,人類的風險是非常高的。