人类会如何灭亡?霍金的这三种警告引人深思

现在的位置: 故事大全首页 > 奇谈怪事 > 猎奇 >
 
人类会如何灭亡?霍金的这三种警告引人深思
2016-05-16 10:13:47 /故事大全

【点击图片进入下一页或下一篇】

 1.人工智能

霍金一直以来都对人工智能(AI)相当担忧,甚至认为AI是「人类历史上最严重的错误」。他认为人工智能的潜力无限,完全有可能超越人类的智慧水平,摆脱人类的控制。霍金曾直言不讳地说「AI的全面发展将导致人类的终结!」霍金的这个观点不无道理,获得了很多精英人士的支持,其中「现实版钢铁侠」埃隆·马斯克就曾声援称「AI是人类生存最大的威胁!」霍金对AI的威胁最到位的一句评价是——「人工智能的短期影响取决于谁控制了它,而长期影响则取决于它到底能不能被控制。」

所属专题:
如果您觉得本文或图片不错,请把它分享给您的朋友吧!

 
故事大全
 
版权所有- © 2012-2025 · 故事大全 SITEMAP站点地图-Foton Auman手机看故事 站点地图-Foton Auman