因子图为解决机器人感知和控制中遇到的大规模非线性推理问题提供了一个灵活而强大的框架。通常,这些方法依赖于手工制作的模型,这些模型可以有效地进行优化。然而,机器人经常通过复杂的、高维的传感器观察来感知世界。例如,假设一个机器人操纵一个物体,并接收高维触觉观察,从这些观察中它必须推断潜在物体的姿势。我们如何结合机器学习从观察中提取显著信息和图优化来有效融合这些信息?
在本论文中,我们解决了三个主要的挑战:(1)我们如何从循环中的优化器的数据中学习观察模型?我们证明学习观察模型可以被看作是塑造能量函数,使图优化器,甚至不可微的图优化器,优化。(2)我们如何在来自真实世界的物理或几何图形的图形优化器中强加硬约束?我们将增量高斯-牛顿求解器扩展到一个更广泛的原始对偶框架,以在线方式高效地求解约束。(3)最后,我们研究了从触觉图像观察中提取显著信息的不同的学习特征表征。
我们在机器人操作的触觉感知的实际应用中评估了这些方法,在跨越平面推和手操作任务的数百个试验中,我们证明了可靠的对象跟踪。本论文在因子图推理、基于能量的学习和约束优化之间建立了新的联系,为这些主题交叉的新研究问题开辟了道路。