Skip to content

Latest commit

 

History

History
25 lines (13 loc) · 4.35 KB

embedding-personality-into-artificial-conversation-e5a37ef8873b.md

File metadata and controls

25 lines (13 loc) · 4.35 KB

在人工对话中嵌入个性。

原文:https://pub.towardsai.net/embedding-personality-into-artificial-conversation-e5a37ef8873b?source=collection_archive---------1-----------------------

Mauro SbicegoUnsplash 上拍摄的照片

人类的对话是他们经历的融合。这些经历从微小的互动到反复强化的行为,从我们看的电影到我们的对话,不一而足。为了创造能够复制有机人类交流的对话代理,重要的是根据人类个体对话模式如何发展来考虑它们的训练。

除了口音,人类说话时有独特的标记,他们谈话的内容是特定于他们的经历和个人发展的。我个人从小就非常关注家庭,有时即使谈话没有直接提到家庭,我仍然会以某种方式划出一条线来提及我的家庭,这是因为我在心理上画出了某些话题之间的独特联系,或者我对某些话题的独特关注和兴趣。类似地,我们不能指望对话式人工智能通过图灵测试,当它在大型通用数据集上训练时,语法习惯和主题标记都丢失了。对话是通过共同讨论进行的个性交流,因此,对于对话式人工智能来说,真正复制互动是必要的,重点培训需要考虑理解语言并通过特定的视角来解释它。

人类交流和个性形成的方式在大多数方面与机器被教导的方式是垂直的。对话代理通常使用相同的数据集针对多个响应和主题进行训练,工程师通常试图消除偏见,修复不平衡的数据集并避免过度拟合,因为他们正在训练一般能够就多个主题进行对话的代理。虽然人类比其他人更多地接触某些主题,但他们对不同主题的知识各不相同,受某些信息的影响也比其他人大,他们对自己拥有的所有知识并不都是公正的。偏见存在于人类对主题的学习中,并通过形成习惯、观点和信念导致他们的交流和个性的最终发展,而在机器学习中,由于发展的方法,偏见被认为是对话模型的陷阱。

使用整体建模工作流程,有可能复制这些微妙之处。例如,对话代理可以被训练正确地复制通用语言以首先学习语法和句法,但是可以采用类似工作流的“渗透”来集成信息的相关或相关方面以模拟个性。这将涉及为特定主题分别训练模型,并允许对输入进行处理,然后输出一个有机的“人类”输出。比如问一个对话代理“你对战争有什么感觉?”一个不太关注政治而高度关注娱乐的代理人可以回答,“我不喜欢战争,但我看了很多战争电影”。这显示了对主题的理解、个人兴趣以及通过自然流动与主题的关系。这显然是一个非常基础的例子,但这个想法是,通过不同地训练不同的主题(在偏差、方差、学习率、调整同质性或异质性反应方面),我们复制了人类学习和兴趣中存在的方差,通过以独特的方式连接这些主题,我们可以模拟人类在交流中不同主题之间的独特联系。

这种系统通过整合交错强化学习,类似于儿童的学习方式,允许通过互动不断学习。一个孩子学会了翻身,花了几个星期学习他/她可以把自己推起来,靠着或使用其他东西作为杠杆,然后在一个月左右的时间里,把自己推到一个能承受他们体重的东西上,他们就能站起来了。这相当于让一个模型学习一个主题的小变化、添加或联系,在足够的交互之后,一个新的联系和“观点”或者更恰当地说,一个新的关系反应可以形成。

有机人类对话的许多方面可以通过集中调整和关注我们如何和为什么说事情来复制,而不是最佳反应是什么。真正的对话式人工智能需要关注个人体验和通过互动的合作增长。开发我们大脑用来交流最简单事物的类似网络的架构可能会很有趣。

对话是一种经验的交流,也是一种思想的交流,为了复制人类的对话,重要的是人工设计人类对话的最小方面,以允许人类的联系。

感谢阅读!