精选文章

霍金担心人工智能会让人类灭亡,建议用逻辑和理性控制未来威胁!

2019-01-15 17:43:54 | 来源:中培企业IT培训网

很早之前,著名的物理学家和宇宙学家霍金就提出了“人工智能威胁论”,在他看来,如果有人设计计算机病毒,那么就有人设计不断自我完善、直到最终超越人类的人工智能,而这些人工智能很可能通过战争摧毁人类,世界就将以一种新的生命形式出现。

我们需要认识到人工智能对人类的威胁,并及时化解这一威胁的存在。之前霍金在表明他对人工智能的担忧时,就表示人类必须建立有效机制尽早识别威胁所在,防止新科技(人工智能)对人们类带来的威胁进一步上升,他认为人类要用逻辑和理性去控制未来可能出现的威胁。

霍金表示:一个高度发达的人工智能可以很好地完成他的目标,如果这些目标没有和我们人类一致,那人类就麻烦了。近年来随着人工智能技术的高速发展,其潜在的威胁也受到了越来越多科学家的关注,英国牛津大学教授、人类未来研究所创始人Nick Bostrom表示:随着世界的不断分化,我们在不断开发出越来越强大的工具,我不确定人类是否能够长期生存下去。

霍金称:自从人类文明形成以来,来自生存能力优势群体的侵略就一直存在,而人工智能的进一步发展就有可能更具有这种优势,它们自身将比人类更加强大与完美,并可能通过核战争或生物战争毁灭人类。因此尽早的建立完善的机制防止未来可能出现的威胁很有必要。

无独有偶,前段时间出现了一个震惊世界的消息:Facebook人工智能研究实验室的两个AI聊天机器人互相对话时,竟逐渐发出人类无法理解的独特语言。这些看似冷冰冰的机器,正在逐渐拥有了像人类一样的思考能力,乃至自我意识。所以说,人类建立完善的机制来做预防是何等的重要。

那么问题就来了:人工智能已经渗透到各行各业,当人工智能具有什么条件时才会对人类造成毁灭性的威胁?

想了解更多IT资讯,请访问中培教育官网:中培教育

标签: 人工智能

预约领优惠