霍金警告人工智能危險性 稱其若失控很難被阻止
編輯: 母曼曄 | 時間: 2016-06-29 15:47:22 | 來源: 中國新聞網(wǎng) |
資料圖:著名天體物理學家霍金。記者 張子揚 攝
據(jù)外媒報道,著名天體物理學家史蒂芬·霍金認為,人工智能應該在符合倫理道德和安全措施要求的情況下開發(fā),因為脫離人類控制之下的機器很難被阻止住。
美國知名記者拉里·金對霍金進行了采訪?;艚鹪诓稍L中承認,他不認為發(fā)展人工智能一定能讓人類朝好的方向發(fā)展。
霍金表示:“當機器發(fā)展到能自己演化的重要階段之時,它們的目標與人類愿望之間的相符程度就很難預料了。”
他指出,人工智能可以比人類的智慧發(fā)展得更快。
資料圖:著名天體物理學家霍金。
他說:“有益的人工智能可以與人類共存,并擴大人類的可能性。但失控的人工智能很難被阻止。在開發(fā)人工智能時必須保證符合道德倫理與安全措施的要求。”
他認為,有益的人工智能將出現(xiàn)在人類生活的各方面。
霍金說:“想象一下那些可以對科學家想法迅速作出評價、更早地查出癌癥、并預測證券市場走勢的人工智能!它們將影響到我們的經(jīng)濟,影響到我們的決策,并在整體上影響我們的生活。”
新聞推薦
- 賴清德即將竄美“朝圣”,“臺獨金孫”又要慷慨解囊!2025-07-18
- 飛行2.25億公里來到地球 這塊石頭被拍出530萬美元天價2025-07-18
- 免簽“朋友圈”又雙叒叕“+1” 出入境旅游“說走就走”更便捷2025-07-18
- 四句話,讀懂這五年商務高質(zhì)量發(fā)展2025-07-18
- 感悟抗戰(zhàn)史詩!160余位駐華外交官參觀抗戰(zhàn)勝利80周年主題展覽2025-07-18
- 團結才能共贏 攜手方可共進——中國以高水平對外開放為世界經(jīng)濟注入暖流2025-07-18