正确的提示信息

扫码打开虎嗅APP

从思考到创造
打开APP
搜索历史
删除
完成
全部删除
热搜词
2016-01-20 15:43

继续“阻碍科技创新”,除了人工智能,霍金又对人们发出了更多警告

据BBC报道,英国著名科学家霍金日前在他的黑洞研究作学术报告后再次向人们发出警告,霍金称,人类一手造成的一系列东西可能给自身的生存带来威胁。而核战争、全球变暖、转基因病毒等,是霍金认为最可能的威胁。


他表示,正是科学和技术的不断进步,创造了“新的出错的可能”。


霍金还说,尽管按年度算,地球发生毁灭性灾难的可能性很小,但小的危险会积累起来,在今后数千年或数万年间会变成一个几乎可以肯定的现实。


但是,霍金也同时表示,到了那个时候,人类可能已经有能力移居到其它星球上,所以地球上的灾难不一定意味着人类的终结。


霍金警告说,在今后数百年间,人类还没有在其它星球建立自给自足的殖民地的能力,所以人类还是要特别小心。


之所以说这是霍金的“再次警告”,是由于此前,霍金还对人工智能对人类自身的潜在威胁发出过警告:


“人工智能可能是一个‘真正的危险’。机器人可能会找到改进自己的办法,而这些改进并不总是会造福人类。”


“尽管人工智能的短期影响取决于控制它的人,但长期影响却取决于它究竟能否被控制。”



在人工智能上和霍金持有相似观点的还有特斯拉、Space X CEO 伊隆·马斯克和微软创始人比尔·盖茨,马斯克曾在其个人社交网站上发表言论称:人工智能的潜在威胁大于核武器。


去年1月,马斯克和霍金一道签署了一封由未来生命研究所发出的公开信,承诺人工智能领域的进步不会脱离人类的控制。去年7月,他们签署了另外一份公开信,呼吁禁止开发自动化武器。未来生命研究所正在研究的课题包括该如何降低人工智能武器的潜在风险等。


也正是由于霍金和马斯克在人工智能方面流露出的悲观情绪,IT与创新基金会将2015年度“卢德奖”,即“阻碍科技创新奖”颁给了他们。IT和创新基金会表示,问题不在于马斯克等人表达的观点,而在于他们表达观点的方式。“提醒人们以安全负责的态度开发人工智能技术并无不妥。问题在于,他们的口吻让很多人感到害怕。”


但两位当事人并没有对这个奖项做出任何回应,可能在他们眼中,他们所担忧的要比这个奖严肃得多。


本内容为作者独立观点,不代表虎嗅立场。未经允许不得转载,授权事宜请联系 hezuo@huxiu.com
如对本稿件有异议或投诉,请联系tougao@huxiu.com
打开虎嗅APP,查看全文
频道:

支持一下

赞赏

0人已赞赏

大 家 都 在 看

大 家 都 在 搜

好的内容,值得赞赏

您的赞赏金额会直接进入作者的虎嗅账号

    自定义
    支付: