Loading
0

人们对人工智能的误解

企业越来越多地在大量应用中使用人工智能来加强决策和改善消费者体验,但公众对此持怀疑态度。

随着近年来人工智能技术进步的加速,社会正在评估基于人工智能(AI)的系统是否是一件好事情。

一方面,人工智能驱动的技术的到来,可以实现业务流程的自动化,管理大数据和辅助决策,被誉为一项技术飞跃,将带来无与伦比的繁荣。事实上,调研机构普华永道估计,到2030年,人工智能所带来的生产力增长将为全球经济增加15.7万亿美元。

但另一方面,人们对日益智能的系统对于人类未来在工作场所和其他领域的实用性意味着什么感到担忧。人们普遍认为人工智能是基于各种伦理问题提出的“人类文明存在的根本风险”。此外,大多数受欢迎的媒体讨论都围绕着“人工智能”这个问题展开,好像它是一个单一的,个性化的实体。

那么,基于人工智能的系统是持续不断的技术进化的下一步,它能让人们取得更多的成就,还是会出现一些令人担忧的事情呢?在研究硬币的两方面之前,首先必须理解大众媒体所描绘的人工智能的错误观念。

误解之一:未来的系统将不需要人类

显然,日益增加的日常服务和工具的自主性引起了社会某些方面的关注。从自动驾驶汽车到可以自动推荐特定的音乐曲目或产品在线服务等等,人们似乎被没有人工智能的系统所包围。因此,随着智能系统的大规模部署,人们对人工智能对其生活影响程度的担忧正在上升。

真相

基于人工智能的系统仍然非常依赖于人类的指导。虽然他们可以以惊人的速度完成许多简单的任务,比如一秒钟内分析超过一百万字节的数据,但他们的大部分学习来自收集关于人类执行这些活动的数据。

目前,基于人工智能系统的知识范围非常狭窄,并延伸到基于规则和重复的活动,例如游戏,或者根据预定义模式回答社会媒体聊天中的问题。

事实上,就一般知识、语境理解、常识、视觉和语言而言,基于人工智能的系统远远落后于人类的日常能力。

人们如何适应并对周围的智能系统作出反应,对这些系统的依赖程度将决定这些系统对人们日后的日常生活会产生什么样的影响。

误解二:基于人工智能的系统不安全

威胁人们安全的自主系统长期以来一直是流行文化中最受欢迎的科幻主题,而基于人工智能系统的能力不断提高,人们越来越担心小说所描述的场景可能成为现实。

今年早些时候,当聊天机器人鲍勃和爱丽丝创造自己的语言,媒体报道这个“新”艺术的系统时,引发了对社会接管的恐惧。而最近,人们对武装人工智能的焦虑已经被无人机和水下自主潜艇等武器系统的虚构代表所激化。

真相

鉴于目前基于人工智能的系统严重依赖于人类,它们反映了这些系统设计者的价值系统,而不是以一种自主的方式去发展。

目前的基于人工智能的系统是聪明的,但是它们距离通用人工智能(AGI)还有很长的一段距离,它们需要作为具有自己的价值系统的自主实体来运行,从而作为独立的威胁。

大多数人工智能系统仍然只能遵循指令,如解决具体问题或分析历史数据,以确定吸引目标受众的最佳策略。基于人工智能的系统需要像现有的其他系统一样进行部署和管理,比如现在的地铁或交通系统。它们与人们在技术型社会中每天与之互动的任何现有系统的危险程度相同。

误解三:基于人工智能的系统将最大限度地减少人类工作的可用性

最后但并非最不重要的是,人工智能系统可让人力资源冗余过剩被一直在推测。普华永道的研究预测,在未来15年,潜在的人工智能突破可能使英国30%的职位在零售、管理和物流等行业处于风险之中。

有迹象表明,企业也开始为机器主导的未来做准备,预计有77%的人会被人工智能所替代,超过80%的人投资于IT。因此,不难看出为什么行业巨头猜测,人们可能很快会每天只需要工作四小时,而工人们对未来的生活也感到紧张。

真相

虽然基于人工智能的系统可能会改变人们的工作方式,但这并不意味着它会取代每个人的工作。相反,将会有大量新的职位涌入,需要人力资源来管理基于人工智能的系统。许多组织正在投入早期的团队来管理在其业务中采用基于人工智能的系统。但值得注意的是,并非所有企业都打算使用基于人工智能的系统来执行常规任务。

据估计,只有8%的公司计划使用基于人工智能的系统来填补常规工作岗位。人们最有可能看到企业通过部署人工智能系统得到支持,因为它可以解放人力资源来设计和开发新的产品(产品和服务)来扩展业务,而不是精简到技术驱动的骨干员工。

长远来看,具有不同情报能力的系统将会积极地破坏办公室内外的生活。对于消费者来说,它将提供无缝的体验,在他们需要的时候提供他们想要的东西。对于企业来说,它将简化操作和数据管理,为创造性专家制定真正的人类共鸣策略提供理想的基础。总的来说,企业应该对人工智能技术有一个现实的认识,避免对流行文化中的错误预测做出反应。

所以,在当前的技术发展潮流中,企业应该探索以人工智能为基础的系统在其内部流程以及企业或以消费者为中心的产品和服务中的效用,而不是让误区或误解阻止它们。