蓋世汽車訊 人類通常很擅長識別何時出錯,但人工智能系統做不到。根據一項最新研究,由于數學存在數百年的悖論,人工智能通常會受到固有限制。
劍橋大學(University of Cambridge)和奧斯陸大學(University of Oslo)的研究人員表示,不穩定性是現代人工智能的致命弱點,一個數學悖論顯示了人工智能的局限性。神經網絡是人工智能中最先進的工具,可大致模仿大腦中神經元之間的聯系。研究人員表明,目前還沒有算法可以生成穩定和準確的神經網絡,除非在特定情況下。據外媒報道,這些研究人員提出了一種分類理論,描述了何時可以訓練神經網絡以在某些特定條件下提供可信賴的AI系統。
圖片來源:劍橋大學
深度學習是用于模式識別的領先人工智能技術,用于可診斷疾病或通過自動駕駛預防交通事故。然而,許多深度學習系統可信度不高且容易被欺騙。
劍橋大學應用數學和理論物理系的合著者Anders Hansen表示:“許多人工智能系統不穩定,并逐漸成為一個主要問題,尤其這些系統越來越多地用于疾病診斷或自動駕駛汽車等高風險領域。如果人工智能系統一旦出錯,就會造成實際傷害,因此提高其可信度非常重要。”
研究人員發現的悖論可以追溯到20世紀的兩位數學巨人:Alan Turing和Kurt G?del。在20世紀初,數學家們試圖證明數學是科學的終極一致語言。然而,Turing和G?del展示了數學核心的一個悖論,即無法證明某些數學陳述是真還是假,一些計算問題也無法用算法解決。而且,無論數學系統有多豐富,以描述學習算術,它無法證明其自身的一致性。
幾十年后,數學家Steve Smale提出了21世紀18個未解決的數學問題的清單。 其中第18個問題就涉及人類和機器的智能極限。
研究人員說,由于該悖論,在某些情況下可以存在良好的神經網絡,但無法建立一個本質上值得信賴的神經網絡。研究人員之一、奧斯陸大學(University of Oslo)Vegard Antun博士表示:“無論數據多么準確,我們永遠無法獲得構建所需神經網絡的完美信息。”
無論訓練數據量如何,都無法計算出良好的現有神經網絡。無論算法可以訪問多少數據,它都不會產生所需的網絡。Hansen表示:“該論點與Turing的觀點類似,無論計算能力和運行時間如何,都存在無法解決的計算問題。”
研究人員表示,并非所有人工智能都存在固有缺陷,但它僅在特定領域使用特定方法才可靠。應用數學和理論物理系的合著者Matthew Colbrook博士表示:“問題在于你需要保證的領域,因為許多人工智能系統都是一個黑匣子。在某些情況下,人工智能是完全可以犯錯的,但它需要誠實地對待。但這一點我們在許多系統中并沒有看到,沒有辦法知道系統什么時候更有信心或缺乏信心做決定。”
Colbrook表示:“當20世紀的數學家發現不同的悖論時,他們并沒有停止研究數學。他們只需要找到新的路徑,因為他們了解局限性。對于人工智能來說,可能也需要改變路徑或開發新路徑,以構建能夠以可信賴和透明的方式解決問題的系統,同時了解它們的局限性。”
未來,研究人員將結合近似理論、數值分析和計算基礎,以確定哪些神經網絡可以通過算法計算,哪些可以穩定可信。正如G?del和Turing提出的關于數學和計算機局限性的悖論導致了豐富的基礎理論(描述了數學和計算的局限性和可能性),也許類似的基礎理論可能會在人工智能中開花結果。
來源:蓋世汽車
作者:劉麗婷
本文地址:http://www.155ck.com/news/jishu/170519
以上內容轉載自蓋世汽車,目的在于傳播更多信息,如有侵僅請聯系admin#d1ev.com(#替換成@)刪除,轉載內容并不代表第一電動網(www.155ck.com)立場。
文中圖片源自互聯網,如有侵權請聯系admin#d1ev.com(#替換成@)刪除。