人工智能帮助诊断疾病和检验科学假设。根据IDC的分析师,到2022年,全球在AI上的支出将达到近780亿美元,四年中增长了两倍多。虽然人工智能似乎无所不能,但它无法处理许多任务。今天我们就来了解有一些人工智能尚无法解决的5个问题即:缺乏数据和安全性、假新闻和网络欺凌、健康与信任、创造力和笑话和什么是智力。当然在现实世界中,我们需要对人工智能持现实态度,不要再期望它能够解决人类的所有问题,毕竟人工智能也存在一定的缺陷,不能真正的替代人类生活。
问题1:缺乏数据和安全性
人工智能需要数据进行分析和培训-如果没有足够数量的结构化数据,就不可能创建实用的人工智能解决方案。例如,要准确识别照片中的面部,您需要分析成千上万张照片。
许多行业,尤其是公共部门,仍然依赖纸质档案,要完全数字化将需要时间。对于企业而言,这意味着仅开发用于AI的软件是不够的-首先,您需要访问数据。
麦肯锡全球研究所的一项研究表明,人工智能技术实施的领导者是金融科技和电信,而落后者是建筑,教育和旅游业,它们缺乏数字化数据。同时,数据质量与数据量同样重要。基于低质量的数据构建正确的模型是不可能的。
因此,数据安全和保护免受入侵者乱扔垃圾和滥用的问题变得十分严重。公司必须在开始实施人工智能之前考虑网络安全。
问题2:假新闻和网络欺凌
人工智能尚无法将虚构的事实与事实相结合,并能抵制错误的信息。尽管OpenAI已经创建了人工智能来产生令人信服的“假新闻”,但是算法仍然识别出比人类更糟糕的假货。
例如,Facebook放弃了人工智能来解决该问题,并雇用了10,000名能够理解出版物文化细微差别的主持人。
人工智能的另一个局限性是:它无法识别社交网络中的情绪。该缺点尤其妨碍有效地解决网络欺凌问题。现有的机制要求必须抱怨进攻性职位的人员参与。
问题3:健康与信任
人们不信任人工智能,这极大地阻碍了人工智能的应用。IBM的Watson Oncology项目能够为13种不同类型的癌症推荐治疗方案-在某些情况下,该算法的决策与肿瘤学专家的建议相同,为93%。
但是医生还不准备将生死决定权委托给机器。人工智能犯下的潜在错误的责任问题也急剧上升。
此外,沃森接受过数据采样的问题-外国医院抱怨说该程序是针对美国的医疗实践和治疗的。结果,一些实施了该技术的医院以高昂的成本和不令人满意的结果而放弃了该技术。
也许有一种方法可以解决社会对人工智能的不信任。美国科学家进行的一项研究表明,如果人们可以对AI算法进行较小的更改,他们就会愿意信任AI。
问题4:创造力和笑话
人工智能缺乏创造力-它只能模仿人的风格,而不能创造自己的风格。媒体长期以来一直使用AI来撰写体育新闻和犯罪故事,但是机器人表演的笑话和小说仍然不能受到批评。
在2018年,一个经过43,000个笑话训练的神经网络开始产生胡说八道,例如“如果与恐龙杂交,您会得到什么?律师。” 显然,我们不应期望幽默领域发生机器革命。
散文并没有什么更好的事情:尽管有一些发展证明了人工智能书写故事的能力,但要使计算机赢得诺贝尔文学奖,还有很长的路要走。
问题5:什么是智力
苹果联合创始人史蒂夫·沃兹尼亚克(Steve Wozniak)建议使用“咖啡测试”来衡量机器智能能力。要通过沃兹尼亚克的测试,
机器人必须进入一个陌生的公寓,找到咖啡机,倒水,拿出杯子,煮咖啡。到目前为止,没有人能够通过这项测试。“咖啡测试”有很多笑话,但它显示了现代机器智能的严重局限性。
Landing AI和Coursera的创始人Andrew Ng认为,有可能成功地自动化那些人类花费不到一秒钟的智能任务。
问题在于人们本身还没有完全理解什么是智能。几十年来,研究人员一直认为,理想的智力测量方法是下棋。如今,大师们无法与机器竞争,但是聊天机器人和语音助手保持有意义的对话的能力已经超过了一个五岁孩子的能力。
解决方案:如何将问题变成挑战如今,人工智能的所有局限性对开发人员和企业家都是一个挑战。机器无法控制的任务对新一代的研究人员来说应该是一个挑战。
例如,可以创建一种基于社交网络消息来猜测一个人的情绪的服务,或者训练一个神经网络来开个俏皮的笑话,并基于此创建一个征服世界的病毒式应用程序。
好了,关于人工智能尚无法解决的5个问题介绍到这里就结束了,想了解更多关于人工智能的信息,请继续关注中培教育。