目前手势识别发展到什么水平了?

朋友跟我用手语交流我不懂,突然想到可不可以设计手机软件通过拍摄手语翻译成自然语言,同样,通过录音把自然语言翻译成手语。
关注者
631
被浏览
367,569
登录后你可以
不限量看优质回答私信答主深度交流精彩内容一键收藏

刚好是和自己的研究方向相关,所以来占个坑。

手势识别可以分为几个方向,利用图像或者是深度信息,双目摄像头或者是深度摄像头。利用手套等可穿戴设备,测量由于关节运动导致的物理变化量。还有基于生理信号,测量肌肉收缩时,肌肉两端产生的电压信号,再用深度学习识别意图。还有一些人利用IMU做的数据手套,或则是机械外骨骼,测量连杆的运动角度,解算出手部的姿态,这些方案可靠性低,和前三种无法相提并论。

1、双目摄像头

双目视觉就是Leapmotion做的最好了,Kinect还是全身做的好一些,现在升级了,在手部方面也没有什么改进,前面回答关于谷歌的视频,就是特效做的好一些,市场上都没有。这种方案就是简单,不需要穿戴,但是定位精度堪忧,做做游戏还可以,做实验就算了。

2、数据手套

全世界做数据手套最好的就是CyberGlove,有幸实验室刚买了一只,之前也买过一只,两只加起来30W+,手势识别的精度不是双目可以比的,官方保证3度之内的误差。如果预算少,买国内的也是光纤传感器的有WiseGlove,或则荷兰的Manes还有5DT,价格大概5W一只,精度也就会差一些。国内还有几千块的数据手套,用的是弯曲传感器,或者是电阻式传感器,玩一玩也够用,精度就不可以保证。

3、肌电信号

手势识别最难,也是最有技术含量的方法就是识别人体肌肉发出的信号,现在人工智能的发展,导致近几年肌电手势的识别也越来越好,也是一个研究热点,已经有一些非常厉害的团队,可以识别很多模式,具体多少种,没有调查清楚。目前全世界有很多科研团队在做,主要应用场景用一些遥操作,假肢的控制。如一些截肢患者,安装一个假肢后,可以用剩下的手臂,利用表面的信号控制假肢的动作,现在假肢厂卖的已经可以完成日常的生活了,我实验室可以识别8个手势,算是国内很好的水平了。