揭秘聊天机器人为何会说人话
2017-09-13 | 编辑:中机教育网 | 来源:中国机械工业联合会机经 | 浏览量:
给记者一个时髦的词,让他对此进行写作,记者们可能需要花上一天的时间;若给记者一个未曾了解的选题,让记者们进行深度写作,这可能需要记者们花更多的时间来对整个行业进行深入了解和探索。人工智能便是如此。
这段时间来,我们总是收到各种关于人工智能威胁论的警告,尤为典型的是,马斯克多番强调人工智能不仅会造成大面积的失业,威胁人类的发展,甚至还会引发第三次世界大战。随着IBM重金加持沃森机器人、富士康立下全机器人组装目标并裁员后,人们对人工智能发展的质疑声音逐步升高。但有影响力的人工智能研究报告并不多,也很少有主流媒体引用,似乎专家学者们都认为目前的人工智能发展程度还很低,还有许多技术上的问题需要突破。在20世纪50年代至80年代之间,也出现过几波人工智能的浪潮,但这次或许不同于前几次。
聊天机器人的bug闹剧
在2017年6月14日,TechCrunch曾报道了一篇文章:《Facebook最新研究:我们训练机器人讨价还价,没想到AI还自己学会了“使诈”,大意是,Facebook研发了具备谈判能力的机器人,而后,Facebook 人工智能研究所(FAIR)继续用机器学习对两个聊天机器人进行对话策略升级,结果发现它们自行发展出了人类无法理解的独特语言。
2017年6月15日,《大西洋月刊》公布了Facebook研发的AI机器人Bob和Alice的一段“对话”记录,并称“机器人创造了人类无法理解的语言”,引起了大家的恐慌。
而后,Facebook 研究院宣布暂停整改这一项目,根据某家海外媒体的说法,原因是“担心失去对这些AI的控制”。这本来只是作者的玩笑话,却不料上了各大科技媒体头条,引发了一波三折的”失控“大戏。
之所以会发生这样的闹剧,是因为Facebook科研团队在开发前期没有为机器人设置正确的“奖励”,鼓励他们说人话。说白了,这其实就是一个bug问题。这样的问题在语言模型初学者的尝试中十分常见,只不过这次出现在了Facebook这样的大公司上,才会被各大媒体争相报道,并被误解为机器人的“早慧”。
今天的机器人仍处于起步阶段,但AI被应用到各大行业领域,并给各大行业带来了新变革。
在一个干净的房间里,我几乎可以看到穿着白袍的研究人员在检查毒气阀门是否关掉,并且他们就人工智能对人类的意义展开了一系列辩论。也许,这只是我的幻想,但许多类似终结者的形象已纷纷呈现在我们的面前。
在机器学习系统上,有一个亟需解决的问题,即调试问题,来自谷歌的Peter Norvig强调。一旦系统中出现了一个问题,那么这个问题便会被复制到整个系统中。虽然可以重新培训机器学习系统,但是问题无法单独解决。
在Facebook的谈判机器人中,我们不能确定无法正确解析语言造成的的信号退化问题将有多严重,事实上,我们甚至不知道机器人语言的含义,也许,我们认为机器人语法和人类语法是一致的。
聊天机器人的真正语言是什么?
在聊天机器人的背后,其实是一套复杂的系统,主要包括5个功能模块:语音识别模块、自然语言理解模块、对话管理模块、自然语言生成模块、语音合成模块。
首先,语音识别模块负责接收用户输入的语音并将其转换成文字形式。
然后,自然语言理解模块在理解了用户输入的语义之后将特定的语义表达式输入到对话管理模块中。
接着,对话管理模块负责协调各个模块的调用及维护当前对话状态,选择特定的回复方式并交由自然语言生成模块进行处理。
最后,自然语言生成模块生成回复文本输入给语音合成模块将文字转换成语音输出给用户。
通常来说,聊天机器人系统中的自然语言理解功能包括用户意图识别、用户情感识别、指代消解、省略恢复、回复确认及拒识判断等技术。
对话管理功能主要协调聊天机器人的各个部分,并维护对话的结构和状态。对话管理功能中涉及到的关键技术主要有对话行为识别、对话状态识别、对话策略学习及对话奖励等。
自然语言生成通常根据对话管理部分产生的非语言信息,自动生成面向用户的自然语言反馈
现在的聊天机器人还存在着诸多的问题,聊天机器人无法根据对话背景给出恰当回答,对于某些深入的课题也无法做到真正意义上的理解与交流,在回答正确率、任务完成率、对话是否及时响应等方面也有待提高。至于聊天机器人是否会开启自己的智慧,形成自己的语言,我想,这大概还很遥远,毕竟,目前的聊天机器人很多时候还听不懂人话呢。
上一篇 上一篇:西北油田可酸溶堵漏技术应用再获成功
下一篇 下一篇:“宁江”牌FMS柔性制造系统:24h连续工作