企业资讯
公司新闻 行业资讯

人工智 能介入人类情感 未来世 界我们将错过什么?

时间:2017-10-18 18:04

  随着人 工智能技术发展加速,越来越 多的不可能正成为可能。人工智 能在人类生活中的存在愈发广泛且深入,甚至于 已经开始介入人类的情感当中。

 

   人工智 能正在我们周围逐渐产生影响力。在社交 媒体上做定向广告,筛选求职者,确定机票价格,通过语 音识别控制中央暖气系统,创造文化输出,或调节交通流量等,人工智 能在人类生活中的任务越来越多。

 

  马斯克预测,到2017年底,特斯拉 无人驾驶汽车将能够在美国各地安全行驶,而无需人工参与。社会型 机器人生活在人类周围,能够在 十年内完成许多家用或护理型任务。

 

  人们普遍认为,到2050年,我们将 能够在这些特定领域之外的其他方面也获得进展,最终实 现通用人工智能(AGI)。AGI是微软 发布的新概念操作系统Singularity的一部分。其理念 是计算机能够在任何认知型任务上超越人类,而人机 融合也变得极为普遍。在那之后会发生什么,谁都说不准。

 

  你有人工智能策略吗?你希望有吗?

 

  有一种 有趣的想象是在人类身体里安装计算机零件,从而令 人类更快地处理数据。人工智 能领域中的一些人设想的“神经网格”可充当 大脑外部的额外皮层,将我们 与电子设备连接起来,其速度和效率都很高。这将是 机器零件的重大革新,也就是说“半机器人”身体中 的电子心脏起搏器和钛合金关节等。未来人 工智能的重点将放在军事和国防应用上,完全自 主武器的概念非常具有争议性。这种武 器系统可以搜索、识别、选择和 摧毁一个基于算法的目标,并从过 去的安全威胁中吸取教训,但是却 并没有人类参与。这是一 个相当可怕的概念。

 

  这些关 于人工智能主宰人类未来的设想,近乎科幻的反乌托邦,让人联想起《终结者》的场景。

 

  偶然性辨别

 

  人类距 离毁灭或许还有一段路要走,但如今 围绕人工智能道德伦理的警示却已经敲响了警钟。就在上个月,机器学 习算法已经受到了抨击,因为它 主动建议亚马逊用户制造炸弹组件,在招聘 广告中体现性别不平等以及通过社交媒体传播仇恨信息等。这种错 误的大部分原因在于机器学习的数据质量和性质。机器会 从人类数据中得出不那么完美的结论。如今,这种结 果对算法的管理和日常生活中的人工智能机制提出了严肃的问题。

 

  最近,一名有 精神病史的年轻美国男子被拒绝了一份工作,原因是 他对于算法型性格测试的态度不合要求。他认为 自己受到了不公平的、非法的歧视,但由于 该公司不明白这种算法的运作方式,而《劳动法》目前也 没有明确涵盖机器决策类的内容,因此他没有诉诸法律。中国的“社会信用”计划也 引发了类似的担忧。去年,该计划从社交媒体(包括朋友的帖子)中收集了一些数据,以评估一个人“公民身份”的质量,并将其用于决策,比如是 否给此人提供贷款等。

 

  对人工 智能伦理和法律的需求

 

  为人工 智能操作和监管制定清晰的道德体系是必要的,尤其是 在政府和企业在某些方面拥有优先权的时候,如获取和维持电力等。以色列 历史学家尤瓦尔·赫拉利 就无人驾驶汽车和电车难题的悖论进行了讨论。像麻省 理工学院的道德机器这样的创新项目试图收集人类对于机器伦理的数据。

 

  但是,伦理并 不是唯一一个涉及人工智能和人类健康问题的领域。人工智 能已经对人类产生了重大的情感影响。尽管如此,作为人 工智能研究的一个课题,情感也依然被忽视了。

 

  你可以 随意浏览下过去两年里在科学学术数据库的网页上发布的3542篇关于 人工智能的同行评议文章。其中只有43篇,即1.2%,包含“情感”一词。真正描 述了人工智能情感研究的文章就更少了。在考虑Singularity系统时,情感应 该被纳入人工机器认知结构考虑的范畴。然而99%的人工 智能研究似乎并不认可这一点。

 

  人工智 能了解人类的感受

 

  当我们 谈论人工智能中的情感时,我们指 的是几种不同的东西。一是机 器能够识别我们的情绪状态并采取相应的行动。情感运 算领域正在快速发展,通过生 物计量传感器来测试皮肤反应、大脑电波、面部表 情和其他情感数据。大多数时候,计算是准确的。

 

  这一技 术的应用既可以是善意的也可以是邪恶的。公司可 以根据你对一部电影的情感反应获得反馈,并通过 智能手机实时向你出售相关物品。政客们 可能会精心打造能够吸引特定受众的信息。而社交 机器人可能会调整自己的反应,在医疗 或护理环境中更好地帮助病患,数字助 手则可能会用一首歌来帮助提升你的情绪。市场力 量将推动这一领域的发展,扩大其覆盖范围,并完善其能力。

 

  我们如 何看待人工智能呢?

 

  这是人 工智能的第二个情感领域。人类对 人工智能的情感反应还没有什么进展。人类似 乎想要与人工智能实现联系,就像我 们对待大多数技术一样,把人的 个性与无生命的物体联系起来,让电器拥有目的性,并将情 感投射到我们所使用的技术上,例如“它对我很生气,这就是 它不起作用的原因”等等。

 

  这就是 所谓的媒体等同(Media Equation)。它涉及 到一种双重思考:我们在 理智的认知上明白机器不是有知觉的生物,但我们 在情感上却会对它们做出反应,就好像 它们拥有情感一样。这可能 源于我们人类最基本的需求,即人际 关系和情感联系,如果没有这些,人类就会变得抑郁。这一需 求驱使人类去与其他人和动物实现联系,甚至是机器。感官体 验是这种结合驱动和奖励机制的重要组成部分,也是快乐的源泉。

 

  虚假社交

 

  当我们 的环境中不存在联系和归属感的体验时,我们会通过电视、电影、音乐、书籍、视频游 戏和任何能够提供沉浸式社交世界的东西来复制这种体验。这被称 为社会替代假说(Social Surrogacy Hypothesis),一种由 社会心理学的实证支持的理论,它正开 始被应用于人工智能。

 

  人类的 基本情感是有依据的,即使是 面对虚拟的人工智能。例如面 对数字助理的恭维所表现出的开心,面对拒 绝抵押贷款申请的算法时表现出的愤怒,面对无 人驾驶汽车时表现出的害怕,面对Twitter的人工 智能拒绝验证自己账户时表现出的难过(我现在 还在为这个问题而伤心)。

 

  机器人

 

  人类面 对有实体的人工智能的情感反应更强,也就是说机器人。机器人越像人类,我们对 它的情感反应就越强烈。我们被 拟人化的机器人所吸引,向它们 表达积极的情感,当看到 它们受到伤害时,我们会 产生同情和不快的感觉。如果他们拒绝我们,我们甚至会感到难过。

 

  然而,有趣的是,如果一 个机器人几乎完全像人类一样,但又不是完美的人类,我们对 它们的评估会突然下降,从而拒绝它们。这就是所谓的“恐怖谷”理论,由此产 生的设计理念是在现阶段让机器人看起来不那么像人类,除非有 一天我们能把机器人制作地和人类一模一样。

 

  温柔的触摸

 

  人工智 能现在利用触觉技术,一种基于触摸的体验,来进一 步加深人类与机器人之间的情感纽带。也许这 个例子最为著名:有一只毛茸茸的海豹Paro在不同 国家的护理机构中都挺有用。

 

  社交和 情感机器人有很多潜在的用途。其中一 些措施包括照顾老年人,帮助它们自主生活,帮助遭受孤立的人,以及患有痴呆症、自闭症或残疾的人。基于触 摸的感官体验正日益被集成到虚拟现实等融入科技中,这是其中的一部分。

 

  在其他领域,人工智 能可能会负责处理日常家务琐事或教学之类的任务。一项针对750名年龄在5岁到18岁之间 的韩国儿童的调查发现,尽管他 们中的大多数人在接受人工智能机器人教授的课程时都没有什么问题,但许多 人对人工智能老师发挥的情感作用表示担忧。机器人 能给学生提供建议或情感吗?然而,超过40%的人赞 成用人工智能机器人代替教师。

 

  正如哈 佛大学心理学家Steven Pinker所说,像上面 描述的社会替代这样的体验可以让我们欺骗自己。我们并 没有真正体验到社交,但却欺骗大脑,让我们 相信自己是如此,从而令自己感觉更好。然而,复制的 效果不如真实的好。

 

  结语

 

  显然,人们可 以从与人工智能的互动中体验到真实的情感。但是,我们是 否会在无人驾驶汽车、虚拟助手、机器人教师、清洁工和玩伴之外,错过一 些离自己不那么遥远的东西?

 

  这一场景让人想起了Harry Harlow著名的实验,在那里,被孤立 的猴子们可以选择有着柔软毛发的“母亲”,而不需 要通过冰冷的铁丝网领取分发的牛奶。我们是 否能在技术上实现我们想要的一切,并意识 到人类基本的情感需求与现实世界感官体验的乐趣是不存在的?至于对 未来来说较为奢侈的东西,我们是 否会追求与大批量生产的垃圾食品相对立的东西,即真正 的感官体验和与真人的接触,而不是机器人?

 

  答案是,现在还不知道。但是,99%的人工 智能研究没有关注情感,这一事实表明,如果情 感确实在人工智能中发挥更大的作用,那么这 要么是事后的想法,要么是 因为情感数据让人工智能设备及其雇主能够拥有更多权力和金钱。数字人 文主义计划可能会帮助我们记住一点,即当我们朝着Singularity系统与 人机融合进发时,我们不 应该忽视自身古老的哺乳动物大脑以及它们对情感纽带的需求。OpenAI项目是 朝着这个目标迈出的一步,它的目 标是让所有人都能享受到人工智能的好处。那么让我们更进一步,在人工 智能领域考虑下情感健康。谁又知 道这会给我们带来什么呢?

友情链接:    北京赛车登入   盛世彩   盛世彩   一号彩票   1980彩票