The question how neural systems (of humans) can perform reasoning is still far from being solved. We posit that the process of forming Concepts is a fundamental step required for this. We argue that, first, Concepts are formed as closed representations, which are then consolidated by relating them to each other. Here we present a model system (agent) with a small neural network that uses realistic learning rules and receives only feedback from the environment in which the agent performs virtual actions. First, the actions of the agent are reflexive. In the process of learning, statistical regularities in the input lead to the formation of neuronal pools representing relations between the entities observed by the agent from its artificial world. This information then influences the behavior of the agent via feedback connections replacing the initial reflex by an action driven by these relational representations. We hypothesize that the neuronal pools representing relational information can be considered as primordial Concepts, which may in a similar way be present in some pre-linguistic animals, too. We argue that systems such as this can help formalizing the discussion about what constitutes Concepts and serve as a starting point for constructing artificial cogitating systems.


翻译:神经系统(人类的神经系统)如何进行推理的问题还远没有解决。 我们假设,形成概念的过程是这个过程所需要的一个基本步骤。 我们争论说,首先,概念是作为封闭式陈述形成的,然后通过将它们相互联系起来加以巩固。 我们在这里提出了一个模型系统(代理),它有一个小型神经网络,使用现实的学习规则,并且只从代理实施虚拟行动的环境得到反馈。首先,该代理器的行动是反射的。在学习过程中,输入中的统计规律导致形成神经库,代表该代理商从人为世界观察到的实体之间的关系。这种信息随后通过反馈连接影响代理人的行为,以这些关联性陈述所驱动的行动取代最初的反射。我们假设,代表关系信息的神经库可以被视为原始概念,在某些语言前的动物中也可能存在类似的情况。我们争论说,这种系统有助于正式讨论概念的构成要素,并成为建造人工合成系统的一个起点。

0
下载
关闭预览

相关内容

《计算机信息》杂志发表高质量的论文,扩大了运筹学和计算的范围,寻求有关理论、方法、实验、系统和应用方面的原创研究论文、新颖的调查和教程论文,以及描述新的和有用的软件工具的论文。官网链接:https://pubsonline.informs.org/journal/ijoc
【NUS-Xavier教授】注意力神经网络,79页ppt
专知会员服务
61+阅读 · 2021年11月25日
专知会员服务
49+阅读 · 2021年6月30日
ICML 2021论文收录
专知会员服务
122+阅读 · 2021年5月8日
因果图,Causal Graphs,52页ppt
专知会员服务
238+阅读 · 2020年4月19日
强化学习最新教程,17页pdf
专知会员服务
168+阅读 · 2019年10月11日
Hierarchically Structured Meta-learning
CreateAMind
23+阅读 · 2019年5月22日
强化学习的Unsupervised Meta-Learning
CreateAMind
17+阅读 · 2019年1月7日
Unsupervised Learning via Meta-Learning
CreateAMind
41+阅读 · 2019年1月3日
disentangled-representation-papers
CreateAMind
26+阅读 · 2018年9月12日
Hierarchical Disentangled Representations
CreateAMind
4+阅读 · 2018年4月15日
Capsule Networks解析
机器学习研究会
10+阅读 · 2017年11月12日
可解释的CNN
CreateAMind
17+阅读 · 2017年10月5日
Equivariance and generalization in neural networks
Arxiv
0+阅读 · 2021年12月23日
Arxiv
4+阅读 · 2021年10月19日
Arxiv
14+阅读 · 2021年6月27日
Generalization and Regularization in DQN
Arxiv
6+阅读 · 2019年1月30日
Arxiv
5+阅读 · 2018年5月1日
Arxiv
4+阅读 · 2017年1月2日
VIP会员
相关VIP内容
相关资讯
Hierarchically Structured Meta-learning
CreateAMind
23+阅读 · 2019年5月22日
强化学习的Unsupervised Meta-Learning
CreateAMind
17+阅读 · 2019年1月7日
Unsupervised Learning via Meta-Learning
CreateAMind
41+阅读 · 2019年1月3日
disentangled-representation-papers
CreateAMind
26+阅读 · 2018年9月12日
Hierarchical Disentangled Representations
CreateAMind
4+阅读 · 2018年4月15日
Capsule Networks解析
机器学习研究会
10+阅读 · 2017年11月12日
可解释的CNN
CreateAMind
17+阅读 · 2017年10月5日
相关论文
Equivariance and generalization in neural networks
Arxiv
0+阅读 · 2021年12月23日
Arxiv
4+阅读 · 2021年10月19日
Arxiv
14+阅读 · 2021年6月27日
Generalization and Regularization in DQN
Arxiv
6+阅读 · 2019年1月30日
Arxiv
5+阅读 · 2018年5月1日
Arxiv
4+阅读 · 2017年1月2日
Top
微信扫码咨询专知VIP会员