×

“共情”AI出现了,你会与之共情吗

admin admin 发表于2024-05-02 01:24:04 浏览11 评论0

抢沙发发表评论

情感智能包括从行为中推断意图和偏好的能力,因此在某种意义上,情感智能才是 AI 界面最重要的功能。图片来源:VentureBeat 网站

  科技日报记者张梦然

  当我们想到有情感的人工智能(AI)时,素材其实都来源于科幻作品,其中的情感式 AI 常常被描述成一个寻求人类同等爱意的孤独者,或心思缜密的电子大脑。

  现在,一家由前“深度思维”(DeepMind)研究员担任首席执行官的初创公司“Hume AI”,发布了一款标榜为“第一个具有情商的对话式 AI”的共情语音接口(EVI),其能够检测到用户 53 种不同的情绪。

  这是技术上的一个飞跃。“Hume AI”公司已在一次B轮融资中筹集了 5000 万美元,但随之而来的,也有人们夹杂了恐惧的希冀。

  情感是 AI 的分水岭吗

  1997 年,IBM 的“深蓝”打败了国际象棋世界冠军,其强大的计算力、纯粹的暴力破解法震惊人类,也扭转了 AI 研发的形势。这种暴力破解法,后来就被用于机器学习,在看似具有无数种可能的对战中轻松取胜。

  现在,各领域 AI 挑战人类的消息不断传来,可能会给人这样一种错觉:计算机在认知能力方面已堪比人类。

  但两者之间仍存在一条鸿沟。机器学习和自然语言专家格雷格·霍兰德告诉人们,人脑可以解决 AI 前所未见的问题,而机器学习依然是针对特定问题而设计的。

  实际上,考虑 AI 的实现程度,需精准地用强 AI 和弱 AI 来划分。“强”是认为计算机不仅作为一种工具,其本身就是有思维的。这样的机器有知觉,有自我意识。

  而“弱”则是认为不可能制造出真正进行推理并解决问题的机器,AI 终究是没有自主意识的工具。长期以来,主流研究也正是围绕“工具”展开的,且成就可观。

  但也因此,很多人将是否具有知觉或情感,当成了 AI 发展的分水岭。

  AI 需要理解情感吗

  AI 的下一个重要问题是理解和运用情感吗?“Hume AI”的答案是肯定的。该公司的初衷即是要让一个情感智能模型更好服务人类。

  该公司认为,情感智能包括从行为中推断意图和偏好的能力。这正是 AI 界面试图实现的核心目标:推断人们想要什么,然后去实现它。因此在某种意义上,情感智能才是 AI 界面最重要的功能。

  同样作为聊天机器人,“Hume AI”与前辈们的区别在于,它专注于理解人类情感并作出合理反馈。它不仅能理解文本,还可使用语音对话接口,听取人类的语调、音高、停顿等声音特征来加深理解。

  这种理解可能非常细微,包括但不限于人们的快乐、悲伤、愤怒、害怕等“大情绪”,连更微妙、更多维的“小情绪”也在体察范围内,譬如钦佩、崇拜、沉迷、讽刺、羞耻等,“Hume AI”在其网站上总共列出了 53 种不同的情绪。

  不得不说,像讽刺这种常常带有反意的情感表达方式,连人类也不是每每都能察觉到的。

  你害怕有情感的 AI 吗

  其实,人们害怕的不仅仅是能感知情感的 AI。近年来,在 AI 迅猛发展的同时,反思和提醒的声音一直存在。

  业界著名公众人物的警告也有可能放大恐惧。如被评为“爱迪生的合法继承人”的美国科学家库兹韦尔推断:在 2045 年,AI 将超越人类大脑,促进社会剧烈转型,跨入高智能机器时代。此外,“钢铁侠”埃隆·马斯克也曾说过,AI 或许很快会强大到能统治世界的地步。

  但普通人会觉得,在到达那一步之前,AI 需要再多点什么——感知情感,可能就是缺失的那一环。

  “Hume AI”演示之后反响十分热烈。但网络上已开始有人担心,用户会以一种不健康的方式沉迷于它的“魅力”,同时滋生一些不良用途,譬如诱导、操纵、欺诈等。

  人类的情感并不只有正面情绪。当 AI 试着了解甚至学习人们的情感行为时,是否会主动或被动地利用其来达到某些目标?譬如诱导购买、养成恶习、心理折磨等。

  当缺少伦理限制与法律红线时,被当作工具的,可能是人们自己的情感。

群贤毕至

访客