人工智慧有多恐怖?霍金教授警告:它的成功,可能造成 文明史的終結...總有一天將毀滅人類!

得到

得到

  • 2017-05-10 14:31
  • 更新:2017-05-11 18:16

人工智慧有多恐怖?霍金教授警告:它的成功,可能造成 文明史的終結...總有一天將毀滅人類!

(圖/shutterstock)

 

今天在「得到」上看到一篇霍金對人工智慧發展的表態,

原標題名為「新分享丨霍金如何看待人工智慧」 

這文章使我了解人工智慧帶來的轉機和危機,

分享給大家,希望大家一起思考討論!

 

霍金對「人工智慧」的發展

提出了看法...

4 月 27 日,現代最偉大的物理學家之一霍金

在 2017 全球移動互聯網大會上發表了演講,

主題是《人工智慧造福人類及其賴以生存的家園》,

演講過後他還接受了現場企業家的提問,

下面跟大家分享這次演講和問答的主要內容。

 

讓我們一起來看看...

 

(贊助商連結)

 

 

人工智慧崛起

不是「大好」就是「大壞」

首先霍金說,他的一生見證了社會深刻的變化,

其中最深刻的,同時也是對人類影響與日俱增的,

就是人工智慧的崛起。

霍金認為,人工智慧的崛起,

要嘛是人類歷史上最好的事,要嘛是最糟的。

但是,到底是好是壞現在還不能確定。

人工智慧的好我們都知道,語音辨識、圖像分類、

自動駕駛、機器翻譯和問答系統等等都是成功的案例。

隨著這些領域的發展,從實驗室研究到有經濟價值的技術,

就可以逐漸形成良性迴圈。

哪怕是很小的性能改進,都會帶來巨大的經濟效益。

 

AI 潛在的好處是巨大的

但仍存在許多疑慮

文明所產生的一切,都應該是人類智慧的產物。

但是霍金說:

我相信生物大腦可以達到的和電腦可以達到的,沒有本質區別。

電腦在理論上可以模仿人類智慧,

然後超越人類智慧,這個原則是成立的。

所以對於人工智慧人們有很多擔憂。

比如,我們不知道在未來,

人類是會無限地得到人工智慧的幫助,

還是被藐視、被邊緣化甚至被毀滅?

有一天,人工智慧一旦脫離了束縛,

以加速的狀態進行自我反覆運算了,

那被生物進化限制的人類怎麼辦?

還有沒有能力跟人工智慧競爭?

未來,人工智慧還可能發展出自我意志,

如果那是一個與我們衝突的意志,該怎麼辦?

 

 

最重要的是

必須確保 AI 在未來對我們是有利的

霍金說,之前特斯拉的 CEO 埃隆·馬斯克就曾警告過人們:

超人類的人工智慧可能會帶來不可估量的利益,

但是如果部署不當,則可能給人類帶來相反的效果。

簡而言之,霍金的觀點是:

人工智慧的成功有可能是人類文明史上最大的事件,

但是也有可能是人類文明史的終結,

除非我們學會如何避免危險。

比如,人工智慧是有根除疾患和貧困的潛力的,

但是研究人員必須能夠創造出可控的人工智慧才行。

所以,我們要竭盡所能,確保人工智慧的未來發展對我們是有利的,

霍金說,也許我們所有人都應該先停一停,

把研究從提升人工智慧能力轉移到最大化人工智慧的社會效益上面。

 

比起約束人工智慧,

更難的是該如何約束「人」?

創新工廠的 CEO 李開複問:

互聯網巨頭擁有巨量的資料,

而這些資料會給他們各種以用戶隱私和利益換取暴利的機會。

在巨大的利益誘惑下,他們是無法自律的。

而且,這種行為也會導致小公司和創業者更難創新。

您常談到如何約束人工智慧,但更難的是如何約束人本身。

您認為我們應該如何約束這些巨頭?

霍金回答說:

據我瞭解,許多公司只是將這些資料用於統計分析,

但任何涉及到私人資訊的使用都應該被禁止。

如果互聯網上所有的資訊,都是通過基於量子技術加密過的,

互聯網公司在一定時間內就無法破解,

這樣會有助於隱私保護,但安全服務會反對這個做法。

 

上面跟大家分享的文章,

是《得到》摘自

“36 氪” 的內容,

在 APP 裡還有音訊可以用 (陳軼男撰稿、鄭磊講述),

像我一樣利用上下班途中,戴上耳機多聽各方說法,

也是一種做功課的方式喔!

 

在發展人工智慧時,

也要先確保人類文明不受影響才行啊!

 

如果覺得這篇文章有幫助,先按個讚哦!

 

 

得到

得到

得到是羅輯思維團隊推出的主打知識服務的App 通過訂閱專欄、付費音頻、電子書等方式 為網友每天提供有價值感的知識內容。