Human beings possess the most sophisticated computational machinery in the known universe. We can understand language of rich descriptive power, and communicate in the same environment with astonishing clarity. Two of the many contributors to the interest in natural language - the properties of Compositionality and Structure Dependence, are well documented, and offer a vast space to ask interesting modelling questions. The first step to begin answering these questions is to ground verbal theory in formal terms. Drawing on linguistics and set theory, a formalisation of these ideas is presented in the first half of this thesis. We see how cognitive systems that process language need to have certain functional constraints, viz. time based, incremental operations that rely on a structurally defined domain. The observations that result from analysing this formal setup are examined as part of a modelling exercise. Using the advances of word embedding techniques, a model of relational learning is simulated with a custom dataset to demonstrate how a time based role-filler binding mechanism satisfies some of the constraints described in the first section. The model's ability to map structure, along with its symbolic-connectionist architecture makes for a cognitively plausible implementation. The formalisation and simulation are together an attempt to recognise the constraints imposed by linguistic theory, and explore the opportunities presented by a cognitive model of relation learning to realise these constraints.


翻译:人类拥有已知宇宙中最尖端的计算机制。 我们可以理解丰富的描述力语言, 并且在同一环境中以惊人的清晰度进行交流。 自然语言的众多贡献者中,有两个人对自然语言的兴趣—— 构成性和结构依赖性的特点—— 很有文件记载, 提供了巨大的空间来提出有趣的建模问题。 开始回答这些问题的第一步是正式的口头理论。 引用语言和设定理论, 这些想法的正式化在论文的前半部分中出现。 我们可以看到, 处理语言的认知系统需要某些功能限制, 即基于时间的、 依赖结构界定域的渐进操作。 分析这一正式设置的观察结果作为模拟演练的一部分得到了审查。 使用文字嵌入技术的进步, 一种关系学习模型以定制数据集模拟, 以演示基于时间的装饰者约束机制如何满足第一节中描述的一些限制。 模型的绘制结构, 以及其象征性的、 关联的建筑结构, 取决于一个结构定义清晰的模型。 正式化和模拟是试图通过认知性约束来认识一种语言约束, 并尝试通过认知性约束, 学习和理解一种认知性约束, 学习和模拟的理论, 尝试通过认识一种认知性约束, 认识一种认知性关系, 来认识一种认知和理解这些约束, 尝试, 认识一种认知性关系, 并尝试一种认知性关系, 尝试一种认识一种认知性约束。

0
下载
关闭预览

相关内容

专知会员服务
124+阅读 · 2020年9月8日
强化学习最新教程,17页pdf
专知会员服务
181+阅读 · 2019年10月11日
机器学习入门的经验与建议
专知会员服务
94+阅读 · 2019年10月10日
【哈佛大学商学院课程Fall 2019】机器学习可解释性
专知会员服务
104+阅读 · 2019年10月9日
Hierarchically Structured Meta-learning
CreateAMind
27+阅读 · 2019年5月22日
强化学习的Unsupervised Meta-Learning
CreateAMind
18+阅读 · 2019年1月7日
Unsupervised Learning via Meta-Learning
CreateAMind
42+阅读 · 2019年1月3日
A Technical Overview of AI & ML in 2018 & Trends for 2019
待字闺中
17+阅读 · 2018年12月24日
已删除
将门创投
3+阅读 · 2017年10月12日
VIP会员
相关资讯
Hierarchically Structured Meta-learning
CreateAMind
27+阅读 · 2019年5月22日
强化学习的Unsupervised Meta-Learning
CreateAMind
18+阅读 · 2019年1月7日
Unsupervised Learning via Meta-Learning
CreateAMind
42+阅读 · 2019年1月3日
A Technical Overview of AI & ML in 2018 & Trends for 2019
待字闺中
17+阅读 · 2018年12月24日
已删除
将门创投
3+阅读 · 2017年10月12日
Top
微信扫码咨询专知VIP会员