Elon Musk一直是技術創新和未來商業模式的前沿代表。所以,當他對矽谷加速採用人工智慧(AI)和機器人技術感到害怕時,很多人感到驚訝。
隨著爭論的持續,您可能會懷疑他說的是否有道理。我們是否需要支援毀滅切換的AI和機器人標準?
Musk(PayPal、特斯拉和SpaceX創始人)認為,人類或將無力抵抗發展到集中化的人工智慧(AI)。他還認為AI的發展速度比人們想像的要快得多,並且很可能會摧毀人類。
該思想與Musk前幾年的說法遙相呼應。當時,Musk表示人類與AI的融合不可避免,因此為了對人工智慧實施更多控制,最佳解決方案是人類-智慧共生體。
理論物理學家斯蒂芬霍金表示,如果技術進步失控,那麼智慧程式和機器人可能會以人類無法比擬的速度持續進化升級,並能快速重新設計自己,我們都應該擔心這一點。
此外,他認為當AI超越人類智慧時,我們將面臨可怕的後果。生存風險研究中心(CSER)和劍橋大學Leverhulme未來智慧中心的專家也表現出相同的擔憂,並將AI列為未來最大的顧慮。
另外,他們還表示, 到2075年自主AI就能夠趕上人類智慧水平。因此,如果不加以控制,這些智慧型機器人可能會引發核戰並摧毀整個人類。
然而,倫敦實驗室DeepMind的聯合創始人Demis Hassabis提出了不同意見。雖然AI經歷了一段加速發展時期,但仍然不是Musk所擔心的全能本身的進化軟體。
如今的AI為Google搜尋引擎、基本數位助理(比如Apple的Siri)以及Facebook使用的照片標記技術等領域提供支援。但是,人們的最終目標是構建一種可以模仿人類學習的高適應性自學AI,這並不是什麼秘密。
因此,可以得出結論,Hassabis和Musk都是對的。不受限制的AI發展是一個非常現實的危險,但是用世界末日描述這個問題可能是杞人憂天(更像是一種干擾)。
然而,即使是Hassabis的合作夥伴和DeepMind聯合創始人Shane Legg也認為AI技術將導致人類滅絕。
AI在短期內為人民帶來了巨大的好處,然而,參與機器人標準的討論和對話從而制定相關標準也非常重要。
這意味著現在就應該擬定協議來管理人工智慧和機器人,而不是在他們獲得卓越智慧之後。因此,在人工智慧中加入毀滅切換可能是一個好主意,但是全球管理機構也必須回答一些道德問題。
比如,AI應該像人類一樣獲得權利嗎?更重要的是,當AI造成傷害時,誰應該承擔責任?
科幻作家Isaac Asimov在20世紀中期就考慮過這些事情。他建議實施以下機器人三大定律,以確保對人類的保護。
第一定律:機器人不得傷害人類或坐視人類遭受危險而袖手不管。第二定律:機器人必須始終服從人類的命令,當該命令與第一定律衝突時例外。
第三定律:機器人在不違反第一、第二定律的情況下要盡可能保護自己。雖然這些虛構的法則可能會讓人想起阿諾德·施瓦辛格和終結者第一部,但可能是一個很好的起點。
Musk對於的AI恐懼並沒有被忽視。事實上,許多組織正在就系統地管理AI做出努力。亞馬遜、Facebook、穀歌、IBM、微軟等公司已經共同成立了AI合作組織(Partnership on Artificial Intelligence to Benefit People and Society)。Orwellian-sounding團隊希望在研發AI和機器人技術最佳實踐的同時經營一個開放式平臺,以鼓勵人們對該主題進行廣泛討論。此外,美國政府去年發佈了自動駕駛汽車指南。
世界上最古老的兩個科學組織——英國皇家學會和英國國家學術院——也發表了一份報告,呼籲建立一個國家機構,以管理AI的進化發展。可以肯定的是,儘管許多人不像Musk那樣激進,但是這些日益增長的擔憂在世界範圍內得到了共識。
然而,人們仍然存在許多分歧,因此我們仍未就如何實施達成任何協定。人們對機器人標準同樣也未達成共識,所以我們只能拭目以待最終結果。
有一件事是肯定的:這次討論生正逢時,而且世界上的許多偉大思想都已經參與其中。我們朝著正確方向邁出了一步,希望能夠推動毀滅切換理論和最佳實踐向前發展。