前景不妙
對人工智能可能對人類社會造成的負面影響以及自身瘋狂發(fā)展方面,伊隆·馬斯克進行了大量的思考。這些思考讓他相信,如果人類要存續(xù)下去就需要與機器相結合,他甚至創(chuàng)建了一家生物技術公司致力于開發(fā)實現(xiàn)這一目標所需的腦機接口技術。盡管他自己的人工智能實驗室OpenAI已經開發(fā)出具備自我學習功能的人工智能,但是馬斯克最近表示,要使人工智能絕對安全,我們只有“5%到10%的成功幾率”。
根據(jù)最近Rolling Stone上發(fā)表的文章,馬斯克與生物技術公司Neuralink的員工分享了這些信息。盡管馬斯克大力參與人工智能技術的研發(fā),但他公開宣稱,這項技術不僅會帶來好處,也會給人類社會帶來嚴峻的問題。
人工智能技術在安全方面的挑戰(zhàn)來自兩方面。
首先,人工智能技術發(fā)展的一個主要目標是開發(fā)出比人類更聰明,而且能獨立學習,不需要任何人工編程或干預的系統(tǒng)。這種能力所造成的影響是未知的。
事實就是機器沒有道德,悔恨或情緒。未來的人工智能或許能夠區(qū)分“好”和“壞”的行為,但不會有人類的感覺。
在這篇文章中,馬斯克進一步闡述了人工智能目前存在的危險和問題,其中之一是少數(shù)幾家公司實質上壟斷了人工智能技術。在此他以谷歌的DeepMind系統(tǒng)為例。
馬斯克說:“Facebook,谷歌、亞馬遜和蘋果公司都在此列,他們有更多關于用戶的信息。信息的集中會帶來很大的風險。那么,如果人工智能代表了一種極端的信息力量,那么谷歌是否應該由少數(shù)人來控制呢?
是否值得冒險?
專家對馬斯克的論斷褒貶不一。Facebook創(chuàng)始人馬克·扎克伯格(Mark Zuckerberg)表示,他對未來的人工智能持樂觀態(tài)度,稱馬斯克的警告“非常不負責任”。同時,史蒂芬·霍金已經公開聲明,表示他相信人工智能系統(tǒng)風險很大,可能會完全取代人類。
俄羅斯計算機科學家謝爾蓋·尼科連科(Sergey Nikolenko)是一位專門研究機器學習和網絡算法的俄羅斯計算機科學家,他最近與科技網站Futurism分享了他的想法。尼科連科表示:“在人工智能權限、問題匹配以及其他相關問題上,我覺得我們仍然缺乏必要的基本理解和方法。”
至于今天的人工智能,他認為我們沒有什么可擔心的。尼科連科說:“我敢打賭,在當前階段,任何神經網絡都不會突然醒來,決定推翻人類?!?/p>
馬斯克本人可能會同意這一點,但他的觀點可能更多集中在未來人工智能身上。
我們已經開發(fā)了人工智能系統(tǒng),有些能夠實現(xiàn)自我通信,有些能夠進行自我學習。雖然機器人暴動目前看起來還是科幻小說中存在的情形,但人工智能目前所取得的進步使它們看起來代表了未來的發(fā)展方向。
但是,這些恐懼并不足以讓我們停下前進的步伐。我們也能夠用人工智能診斷癌癥,識別自殺行為,或者是阻止性交易。
這項技術在全球范圍內有挽救和改善生命質量的潛力,所以雖然我們必須考慮通過未來的監(jiān)管來確保人工智能的安全,馬斯克的警告最終只是一個人的意見。
他甚至還向Rolling Stone表示:“我并沒有全部的答案。我真的想清楚所采取的哪些行動能夠帶來更美好的未來。如果你有這方面的建議,請告訴我到底是什么?!?/p>