SGP的衍生问题——极简版

SGP的衍生问题——极简版

曾经在前辈夏永红的文章《符号奠基问题及其解决策略》[1]中看到了对于SGP衍生问题的介绍,一直没有时间来继续研究这样的问题,今天我们简单梳理一下SGP的衍生问题。

这篇文章中有这样一段话:

“SGP 是人工智能领域的一个经典难题。后来的研究者们相继提出了一系列与 SGP 内容略有差异的问题版本,比如表征奠基问题 ( representation grounding problem ) 、概念奠 基 问 题 ( concept grounding problem) 、内在论陷阱 ( internalist trap) 和符号锚定问题 ( symbols anchoring problem) 等。这一问题的重要性从中可见一斑。”

经过研究,前三个问题,即表征奠基、概念奠基和内在论陷阱。在Ziemke的文章《Rethinking Grounding》当中提到了。[2]在Zimke的描述中,这三个问题差不多等同于符号奠基问题的扩展问题。即将纯粹形式符号中的符号扩展到表征和概念当中去。不过,符号奠基问题仍然是这些问题的基础,表征奠基和概念奠基实际上是换了对象的符号奠基问题。

不过,经本人的大量文献搜索,目前来看,今年来SGP的问题主要出现在认知科学、机器人学、计算机科学等子学科当中,并且被当成是技术难题来处理。我们接下来就来看看具体有哪些问题。

一、认知科学中的SGP问题

在认知科学中,科学家们主要进行的工作是对认知建模。而在实验心理学中,认知科学更多采用的方法是通过FMRI这样的脑成像和反应时这样的行为数据来验证某个假设是否靠谱。

例如“青年人比老年人的阅读速度更快”这一假设就要通过构建实验,数据统计来进行验证。目前来看,涉及到认知科学的SGP问题主要出现在三个领域:

1、数字符号奠基问题。

这一问题之下出现了大量的文献。笔者本来觉得符号奠基问题在认知科学中应该从进化心理学最开始出现,因而很难弄清楚为什么数字符号奠基在认知科学中兴起了。不过,我们尊重事实。

数字符号奠基问题和符号奠基问题的表述基本是一致的,即:“数字符号如何获取它的数学意义?”

其相关的文献有:Leibovich T的《The symbol-grounding problem in numerical cognition: A review of theory, evidence, and outstanding questions》[3]

2、体化认知中的符号奠基问题。

体化认知的基本观点是:"感知觉运动信息是构成语言能力的基础"。那么基于这样的观点,意味着所有的语言符号都能够还原到身体的感知觉运动当中去。例如“战争”这样的抽象词汇,就能够还原到具体的情绪和运动信息当中去。人们一想到战争,就会想到如何和对手争斗的场景,因而就能够理解战争这样的词汇。

所以,在体化认知中,一个重要的命题是所有的语言符号都可以进行还原。不过,这一命题自然招致一些批评。基本的文献主要在讨论的问题为:是否所有的语言符号都能够被感知觉运动信息所奠基。

主要文献有:Günther F的《Symbol Grounding Without Direct Experience: Do Words Inherit Sensorimotor Activation From Purely Linguistic Context?》[4]

3、进化心理学中的SGP问题

主要讨论的子问题有:(1)人类婴儿如何对符号进行奠基。(2)人类在进化历程中如何获得语言。具体的文献请看Vogt的《Social symbol grounding and language evolution.[5]

二、计算机科学中的符号奠基问题

粗暴的划分,有两大进路:一是通过制造机器人解决符号奠基问题。这一进路下的文献量巨大。二是通过编程写代码解决符号奠基问题。同样有很多文献,但是没有前者多。

(1)通过制造机器人解决符号奠基问题。

这个篇目下的文献太多了,例如大名鼎鼎的Cog机器人。像Floridi,Vogt, Steels, Brooks等知名机器人专家,都提出了一大批机器人方案,数不胜数。因为这个部分我已经写过文章了,不具体展开。

一篇令人震惊的综述来自于Coradeschi S的《A short review of symbol grounding in robotic and intelligent systems》[6]它虽然只有6页,还得除去结论和摘要,一共引用了78篇文章,实乃堆文献狂魔。

(2)通过编程写代码解决符号奠基问题。

努力方向主要就是通过将神经网络和符号系统结合在一起,制造一个杂合系统。开山鼻祖是哈那德本人。但是,最近又有一些新动向,例如Masataro Asai 等人宣称史上第一次将符号系统和神经网络结合到一起,在不经过人工干预的情况下将感知觉任务抽象成符号处理任务。

如果是真的,那么人工智能又走出了一大步。但是文章我看的不太懂,如果有计算机的同学能给我解释下里面的术语就好了。

这篇文章是Masataro Asai 的《Classical planning in deep latent space: Bridging the subsymbolic-symbolic boundary》[7]

(3)SGP在计算机科学中的其他表述。

这是我觉得比较有意思的部分。例如,锚定问题(anchoring problem)就是很经典的技术问题。但是其内涵就是SGP问题。

关于锚定问题请看Coradeschi S的《An introduction to the anchoring problem》[8]

另外一个有意思的问题则是知识获取问题(knowledge acquisition problem),这个问题的基本表述是:“人工智能如何在感知觉信息中获取知识”。众所周知,人工智能的程序必须要先编好才能运行。例如,我想拼好魔方,人类可以根据魔方的结构获取关于魔方的知识,自己编一个程序拼好魔方。但是人工智能要拼魔方,只能借助人类编好程序来工作,它不能自发的理解怎么拼魔方。

实际上,这个问题很接近框架问题(frame problem)了。因为框架问题的本质是关于人类如何认识常识,表征常识和利用常识解决问题的问题。

关于知识获取问题请看Hart A的《Knowledge acquisition for expert systems》[9]

参考

  1. ^夏永红,李建会.符号奠基问题及其解决策略[J].哲学研究,2017(02):102-110.
  2. ^Ziemke T. Rethinking grounding[M]//Understanding representation in the cognitive sciences. Springer, Boston, MA, 1999: 177-190.
  3. ^Leibovich T, Ansari D. The symbol-grounding problem in numerical cognition: A review of theory, evidence, and outstanding questions[J]. Canadian Journal of Experimental Psychology/Revue canadienne de psychologie expérimentale, 2016, 70(1): 12.
  4. ^Günther F, Dudschig C, Kaup B. Symbol Grounding Without Direct Experience: Do Words Inherit Sensorimotor Activation From Purely Linguistic Context?[J]. Cognitive science, 2018, 42: 336-374.
  5. ^Vogt, Paul, and Federico Divina. "Social symbol grounding and language evolution." Interaction Studies 8.1 (2007): 31-52.
  6. ^Coradeschi S, Loutfi A, Wrede B. A short review of symbol grounding in robotic and intelligent systems[J]. KI-Künstliche Intelligenz, 2013, 27(2): 129-136.
  7. ^Asai M, Fukunaga A. Classical planning in deep latent space: Bridging the subsymbolic-symbolic boundary[C]//Thirty-Second AAAI Conference on Artificial Intelligence. 2018.
  8. ^Coradeschi S, Saffiotti A. An introduction to the anchoring problem[J]. Robotics and autonomous systems, 2003, 43(2-3): 85-96.
  9. ^Hart A. Knowledge acquisition for expert systems[R]. School of Computing, Lancashire Polytechnic, Preston, 1986.
编辑于 2019-10-23 00:32