資料圖:著名英國科學家霍金。
中新網12月3日電據(jù)英國廣播公司(BBC)報道,英國著名科學家斯蒂芬·霍金說,人類創(chuàng)造智能機器的努力威脅自身生存?;艚鸨硎?,“徹底開發(fā)人工智能可能導致人類滅亡?!?/p>
霍金的此番警告是回應對他使用的通訊科技的改良,其中就包括了基本的人工智能。
霍金是英國著名理論物理學家,患有肌萎縮性脊髓側索硬化癥(ALS),使用英特爾(Intel)公司開發(fā)的一種新的系統(tǒng)說話。
另一家英國公司Swiftkey的機器認知方面的專家也參加了這一系統(tǒng)的開發(fā)。這家公司的技術已經被用在智能手機的按鍵應用軟件中,揣摩霍金教授的思想并推測他可能希望使用的詞語。
霍金教授說,人工智能目前的初步階段已經證明非常有用,但他擔心創(chuàng)造出媲美人類甚至超過人類的東西將要面對的后果?!八赡茏孕袉?,以不斷加快的速度重新設計自己。而人類局限于緩慢的生物進化過程,根本無法競爭,最終將被超越?!?/p>
不過,其它科學家并非都對人工智能持如此悲觀的看法。智能機器人的發(fā)明者羅洛·卡彭特表示:“我相信我們還將繼續(xù)在相當長的時間內掌控科技和它的潛力,并解決世界上的許多問題?!?/p>
卡彭特說,“我們還不知道機器智能超越人類后將出現(xiàn)什么情況。所以我們不知道我們最終將得益于此,還是因此而被忽略、被邊緣化,或者被消滅?!彼A示,人工智能將起到正面的作用。
霍金教授并非少數(shù)擔心未來的科學家。智能機器的開發(fā)已經讓很多人擔心它們將取代人類,短期效應是使數(shù)以百萬計的工作職位不復存在。而長期來看,人工智能是“人類生存面臨的最大威脅”。
霍金教授另外還對互聯(lián)網的好處和危險發(fā)表了看法。他引述英國政府通訊總部(GCHQ)負責人的警告說,網絡有可能成為恐怖主義分子的指揮中心。“互聯(lián)網公司應該下更大力氣應對這些威脅,但是困難之處是如何不損害自由和隱私”。
雖然人工智能在過去數(shù)年發(fā)展很快,但霍金使用的科技智能儀器中,聲音部分并沒有任何的更新?lián)Q代。
霍金承認,他的聲音的確聽起來很機器,不過堅持他不想要更加自然的聲音?!斑@已經是我的標志,我不想變成更自然的英國腔調的聲音”,“我聽說很多需要智能聲音的孩子,都要像我這樣的聲音。”