人工智能和聊天机器人:进行敏感性培训

今年早些时候, 微软通过人工智能驱动的聊天机器人将脚趾伸入了人工智能领域 它在Twitter上散布了。它旨在为有对话能力的青少年量身定做,可以响应查询并模仿千禧一代和Z代用户熟悉的随意,有趣的语音模式,这应该很酷。不幸的是,不久之后,Tay就被微软标榜为“来自互联网的AI家族,零冷风” 沦为种族诽谤喷出的怪物.

当然,Tay的奇怪案例有点case幸,科学实验无济于事,他们被一心想利用运行她的软件的互联网巨魔所劫持。尽管如此,微软对泰(Tay)的负面评价凸显了聊天机器人开发人员以及将采用人工智能技术用于客户服务和营销目的的开发人员面临的一个有趣的问题:如何确保您的AI聊天机器人不仅保持正常运行,而且在对客户需求敏感的方式?

这就是弗雷泽·凯尔顿(Fraser Kelton)希望他共同创立的,出生于麻省理工学院的机器学习初创公司Koko能够解决的。“我们正在努力向所有语音或消息传递平台提供移情服务, ” 科尔顿说 在有关FastCode的文章中。“我们认为,对于您与计算机进行交流的世界来说,这是至关重要的用户体验。”

科尔顿没错。实际上,就算是最知名的AI智能机器人都迫切需要Koko的同情注入,这也就不足为奇了。一种 JAMA发表的研究 发现Siri,Cortana和Google Now等智能手机AI在回应涉及身体疾病,抑郁症甚至性侵犯的查询时表现严重不佳。作家莎拉·沃切特-布切尔(Sara Wachter-Boettcher) 讲述自己的经历 在她的中型博客上,报道说当她请求强奸,性侵犯和性虐待的帮助时,她从Siri收到的所有信息都是她预先设定的狡猾言论之一,告诉她性虐待“不是问题”。 苹果几乎立即回应 通过对Siri进行重新编程,将用户提到性侵犯和强奸的信息发送到RAINN的全国性侵犯热线。

科科(Koko)的三人团队刚刚获得了第一轮重大资助,并希望他们能够先解决这些情况,然后再进行处理。概念是Koko的移情API可以连接到任何第三方聊天机器人,并使其具有识别表示情绪的语音模式或语音提示以及适当调整响应的能力。当某人感到沮丧或生气时做出的敏锐反应可能会触发聊天机器人的平静,耐心的反应,以免激起更多的情绪,而对懒或嬉戏的语言可能会产生更富创造性或幽默感的反应。

许多人认为这是一项至关重要的工作-奠定客户服务的垫脚石或基石-人工智能,有朝一日可能无法与生活,呼吸和人类区分开。我肯定在这个阵营中,因为AI和机器学习正在迅速变得越来越复杂,并且那里有太多的可能性,以及它对业务,对客户服务,对流程和简化以及对我们个人的影响生活-令人兴奋的地狱。

并非所有人都对聊天机器人感到疯狂,Teckst的Matt Tumbleson在 有关VentureBeat的文章他说,尽管围绕聊天机器人的嗡嗡声在增长,但他的团队“每天与财富500强的客户服务负责人交谈,他们认为聊天机器人带来的问题多于解决的问题。”

Tumbleson认为,语音交流中的对话树和细微差别对于机器人来说,过于复杂以至于无法完全取代客户服务代理,尽管他确实相信它们可以起到很好的补充作用。他认为,自动化的死记硬背任务,例如向用户发送全面更新并回答相同的通用问题,对于机器人来说是一项完美的任务,而在情感上与另一个人建立联系的真正人类事务最好留给……好吧,人类。

尽管Tumbleson对聊天机器人技术的当前状态是正确的,但尚未达到应有的地位,但很难说他是否对机器人能够取代对话中的人类是正确的。 Koko的目标是补救Tumbleson所称的阻碍客户服务机器人全面服务的问题,如果成功,它将使我们更接近软件与个性无可比拟的世界。

可以肯定的是:作为人工智能软件变得更加经济实惠,我们将看到越来越多的Siris,Cortanas和Alexas。无论是替代客户服务还是对其进行补充,我们当然都不会与聊天机器人进行交互 在将来–我们至少可以做的是教他们以同理心和举止来回应。

此版本的第一个发布于 未来木