论文部分内容阅读
鼠标和键盘都是了不起的发明,不过可千万不要以为你会一直需要它们。
“它是2013年最酷的产品。”现在,从MI T Technology Review到北京的创业者聚集地车库咖啡,四处都有人为一款名为Leap Motion的产品给出类似的定义。
从外形上看,这个人们口中的酷玩意只是一个普通的小黑盒子:长度跟手指差不多,体积比U盘略大,装有两只摄像头,只要通过USB接口连接电脑,你的PC就能通过应用感知手指在三维空间中的动作。当Leap Motion启动时,一块体积约0.12立方米的3D空间会被生成,在此空间内的手指动作都可以被捕捉到。
这是2012年5月,Leap Motion公司推出的体感控制装置。“我们的技术是成熟的。它的精度达到0.01毫米,能识别150度范围内用户十指和双手的动作,捕捉帧速达到了每秒290帧,”Leap Motion联合创始人Michael Buckwald对《第一财经周刊》说,“它是针对桌面电脑,而不是为什么电视和大型计算机工作的。”
这套东西的硬件装置并不复杂,它的核心技术实际是这家公司自主研发、并受专利保护不予透露的算法。根据一些接受采访的技术界人士的分析,Leap Motion采取的技术应该是通过红外LED和高清摄像头,近距离捕捉被测物体的表面照片,得到纹理特征,最后通过运算确定空间信息。
在寻找人机交互的新途径上,Leap Motion,以及你还会看到的另外几家公司,开始踏出了切实的一步。
鼠标是自计算机诞生以来的一个伟大发明,但作为鼠标的用户,你的手和屏幕指针之间还有一段距离,而且动作有限;后来我们进入了触摸屏时代,在手势操作下机器的回应更加即时。问题是,这些交流语言并不来自于人类本身,用户需要时间去学习如何与机器对话。
所以,眼下你已经习惯的这些计算机和其他数码设备的操作方式,用文艺一点的说法,叫作“人类与机器之间的交流”,一直处于一种非自然的状态。
一直从事相关研究的华盛顿大学计算机科学与工程系教授James Landay发现的一点是,人们交流时70%至80%的时间实际都需要依靠手势表达情绪。只是“当计算机出现之后,技术让习惯发生了变化。”他对《第一财经周刊》说。
ATM机是一个典型的技术让人们的习惯发生改变的例子:它最早在1970年代出现的时候,人们需要去银行上课才知道如何使用它;几十年之后,每个人都知道应该如何操作它,5岁的孩子都能在ATM上把钱取出来。
如果要将人机交流恢复到一种“自然”状态,最好的思路是重新“学习”,回到借用手势表达信息和情绪的道路上来。由于它更接近人的本能,这个过程可能并不需要太长时间。
换句话说,这也是技术满足人类本能需求的一个过程。我们曾经一度乐于享受挪动鼠标的手、敲击键盘的手、点击触摸屏的手,但现在,我们越来越迫切地希望有一双能够进行“手势操作”的手。
我们可以将自然人机交互的梦想追溯到1990年代。著名的麻省理工学院(MIT)媒体实验室启动了一项名为G-Speak的研发项目,其中手势控制的部分被称作“G-Speak空间操作界面”。
这个实验室的成员Underkoffler,在2002年成为了导演史蒂文·斯皮尔伯格拍摄《少数派报告》时的科学与技术顾问。这当然不是巧合。因为在那部电影中,男主角对着图像和文件指指点点的画面,体现的正是手势操作技术。如今这样的镜头在众多科幻电影中已经司空见惯了。
接下来还可以回忆一下微软的体感设备Kinect,它正在占领越来越多家庭的客厅。它识别的是人的肢体动作,还没有后来的手势识别那样细腻,但它也是微软整个“自然用户界面”战略进程的一部分,包括体感识别、手势识别和语音控制。2010年11月,微软正式发售Kinect,一度成为全世界销售最快的消费电子产品,由此可见人们对于“自然”操作电脑和电子设备的热情。
作为在微软之前抢先面向大众的手势操作产品,Leap Motion展示了一种想象力,甚至有人开始设想它能够取代鼠标和触摸板—如果使用方式再改进改进,不需要用户将手腕悬空的话。
在 Leap Motion公司的博客上,他们把自己将要改变的交互方式称为“自然用户界面”,这也与微软的提法不谋而合。Leap Motion将人们的目光引向了更自然的控制方法,他们认为相比起鼠标,用户对手势控制的接受会更加容易。
目前Leap Motion的识别范围有限,使用者体验也远远谈不上成熟,但这家公司已经开始构建自己的生态系统—开放对于任何一家小公司占领先机总是有些好处。在他们已经收到的4万个应用当中,排名最高的应用来自于艺术和设计领域。
在硅谷工作的王家澍,也在1月拿到了一台Leap Motion样机用于开发测试。这位iOS开发和UI设计师于Carnegie Mellon大学攻读硕士期间,曾做过不少关于虚拟现实和交互的项目。因为有一些Kinect开发的经验,他12月提交申请之后很快就得到了通过的回复,“事实上填写整个申请只花了5分钟的时间”。
不止是Leap Motion,还有一家名为Pebbles Interfaces的以色列公司在手势控制的技术上也前进了一大步。与Kinect或者Leap Motion利用两只摄像头及算法确定物体空间信息的技术不同,Pebbles利用光学元件就实现了手势控制。
“红外线激光打出去,经过这个公司的专利技术的光学元件,使光线带有空间信息,这样的信息可以用很便宜的红外线感应镜头读取。”创投圈CEO李晓宁说,他同时是这家公司的天使投资人之一。 这种技术的好处是成本低廉,并且识别范围可以达到5米。相比起Leap Motion 70美元的价格,Pebbles的元件可以控制在10美元之内,产品体积只有5立方毫米,嵌入谷歌眼镜这样的穿戴式设备中也毫无压力。
经过李晓宁的牵线,Pebbles已经进入中国并找到了合作伙伴—包括手机厂商和智能电视厂商。也许在一年之后,无论是手机操作系统还是客厅,对手势控制的想象将变成现实。
加拿大创业公司Thalmic Labs开发出的MYO臂环也提供了另一种技术上的可能性。MYO臂环借助于蓝牙技术,可与PC、手机等其他设备建立联系,让用户不用触摸就能通过手势控制电子设备。
这家诞生于硅谷创业孵化器Y Combinator的创业公司认为自己可以解决摄像头识别不精确的问题。MYO臂环采用的是一系列传感器和机器学习技术,识别的不是手势,而是用户前臂发出指令时的肌肉变化。
根据这家公司官方网站的一些信息,MYO臂环的捕捉速度非常快,因为在手指移动之前,肌肉已经激活并开始运动了。这个惊人的思路为MYO臂环带来了发布两天突破1万台的预订,它支持Mac OS、Windows、iOS和Android,定价149美元。
看起来算法和摄像头并不是手势控制的唯一方式,包括利用光学组件和传感器,都能够实现类似的解决方案。Leap Motion之所以更引人注意,是因为它的商业化进程更快一些。但眼下谁也不好说,到底哪家创业公司的想法更有道理。
开发者们认为Leap Motion的缺陷还很多,毕竟这是一款新的产品。“比如CPU占用率比较高,主要是算法的原因。”王家澍说。而根据开发者们的试用,在多指控制的情况下,“跟丢”的现象也时有出现;在手掌的倾斜角度大于45度时,控制效果也不如人意。
Pebbles似乎提出了更物美价廉的解决方案,它的识别范围也比Leap Motion高出数倍,但它必须要安装在一些外部设备上,仰赖与其他设备制造商的合作;MYO臂环的定价不具备什么优势,不过它的推广性或许不错,套在手臂上就能操作看起来好像更方便。
从iPhone的出现开始,按钮已经逐步变成了移动设备中可以尽量减少的设计。Google Glass很可能也会在未来终结触摸屏的时代,但具体拿什么来操作Google Glass呢?也许正是手势操作。
同样来自MIT媒体实验室的印度人Parnav Mistry,曾于2009年在TED上展示了一个名为第六感(Sixth Sense)的增强现实设备套装。这个套装用摄像头拍摄下用户的手势和面前所有的景象,并且用它来执行相应的动作。用户可以实现的功能包括用手指拍照,缩放地图,打电话或是查阅电子邮件。
现在,他还对我们透露了另外一个项目Touch:当你用手指在一个界面上点击一块内容(图片,文字等等),然后你去另一个界面再点击一次,那些被选中的文字就转移到了另一个界面上。它的基本原理是云计算。当你的手指进行第一次选择点击的时候,其实你已经把这些选中的信息传到了云上,然后再转移到另一个界面的时候,它们又从云上落到了本地。
站在历史的角度,一个发明一旦在技术上成熟,人们就会习惯性地给它加入人性因素。任何产业、任何产品都是如此。最初人们购买电脑,关心的是各种参数:多大的内存、多大的硬盘、多快的处理速度,但现在这些很多时候都成了最常规的考虑。你会更关心颜色、材质、易用程度,这些都是人性的因素。而在开始认真思考“如何与机器交流”的时候,手势终于又重回我们的视线。如果这个趋势继续发展,不仅是双手,人的整个身体都有可能成为与设备互动交流的工具。
鼠标和iPad都在朝着“成为历史”的方向走去,因为技术的更替无时无刻不在发生,而好的技术发明总是更贴近人的本能需求。总有一天你会不再需要键盘,也不再需要鼠标,甚至不需要实体的屏幕,一切交互都只要简单地抬起手腕,甚至卷蜷食指就足够了。
“它是2013年最酷的产品。”现在,从MI T Technology Review到北京的创业者聚集地车库咖啡,四处都有人为一款名为Leap Motion的产品给出类似的定义。
从外形上看,这个人们口中的酷玩意只是一个普通的小黑盒子:长度跟手指差不多,体积比U盘略大,装有两只摄像头,只要通过USB接口连接电脑,你的PC就能通过应用感知手指在三维空间中的动作。当Leap Motion启动时,一块体积约0.12立方米的3D空间会被生成,在此空间内的手指动作都可以被捕捉到。
这是2012年5月,Leap Motion公司推出的体感控制装置。“我们的技术是成熟的。它的精度达到0.01毫米,能识别150度范围内用户十指和双手的动作,捕捉帧速达到了每秒290帧,”Leap Motion联合创始人Michael Buckwald对《第一财经周刊》说,“它是针对桌面电脑,而不是为什么电视和大型计算机工作的。”
这套东西的硬件装置并不复杂,它的核心技术实际是这家公司自主研发、并受专利保护不予透露的算法。根据一些接受采访的技术界人士的分析,Leap Motion采取的技术应该是通过红外LED和高清摄像头,近距离捕捉被测物体的表面照片,得到纹理特征,最后通过运算确定空间信息。
在寻找人机交互的新途径上,Leap Motion,以及你还会看到的另外几家公司,开始踏出了切实的一步。
鼠标是自计算机诞生以来的一个伟大发明,但作为鼠标的用户,你的手和屏幕指针之间还有一段距离,而且动作有限;后来我们进入了触摸屏时代,在手势操作下机器的回应更加即时。问题是,这些交流语言并不来自于人类本身,用户需要时间去学习如何与机器对话。
所以,眼下你已经习惯的这些计算机和其他数码设备的操作方式,用文艺一点的说法,叫作“人类与机器之间的交流”,一直处于一种非自然的状态。
一直从事相关研究的华盛顿大学计算机科学与工程系教授James Landay发现的一点是,人们交流时70%至80%的时间实际都需要依靠手势表达情绪。只是“当计算机出现之后,技术让习惯发生了变化。”他对《第一财经周刊》说。
ATM机是一个典型的技术让人们的习惯发生改变的例子:它最早在1970年代出现的时候,人们需要去银行上课才知道如何使用它;几十年之后,每个人都知道应该如何操作它,5岁的孩子都能在ATM上把钱取出来。
如果要将人机交流恢复到一种“自然”状态,最好的思路是重新“学习”,回到借用手势表达信息和情绪的道路上来。由于它更接近人的本能,这个过程可能并不需要太长时间。
换句话说,这也是技术满足人类本能需求的一个过程。我们曾经一度乐于享受挪动鼠标的手、敲击键盘的手、点击触摸屏的手,但现在,我们越来越迫切地希望有一双能够进行“手势操作”的手。
我们可以将自然人机交互的梦想追溯到1990年代。著名的麻省理工学院(MIT)媒体实验室启动了一项名为G-Speak的研发项目,其中手势控制的部分被称作“G-Speak空间操作界面”。
这个实验室的成员Underkoffler,在2002年成为了导演史蒂文·斯皮尔伯格拍摄《少数派报告》时的科学与技术顾问。这当然不是巧合。因为在那部电影中,男主角对着图像和文件指指点点的画面,体现的正是手势操作技术。如今这样的镜头在众多科幻电影中已经司空见惯了。
接下来还可以回忆一下微软的体感设备Kinect,它正在占领越来越多家庭的客厅。它识别的是人的肢体动作,还没有后来的手势识别那样细腻,但它也是微软整个“自然用户界面”战略进程的一部分,包括体感识别、手势识别和语音控制。2010年11月,微软正式发售Kinect,一度成为全世界销售最快的消费电子产品,由此可见人们对于“自然”操作电脑和电子设备的热情。
作为在微软之前抢先面向大众的手势操作产品,Leap Motion展示了一种想象力,甚至有人开始设想它能够取代鼠标和触摸板—如果使用方式再改进改进,不需要用户将手腕悬空的话。
在 Leap Motion公司的博客上,他们把自己将要改变的交互方式称为“自然用户界面”,这也与微软的提法不谋而合。Leap Motion将人们的目光引向了更自然的控制方法,他们认为相比起鼠标,用户对手势控制的接受会更加容易。
目前Leap Motion的识别范围有限,使用者体验也远远谈不上成熟,但这家公司已经开始构建自己的生态系统—开放对于任何一家小公司占领先机总是有些好处。在他们已经收到的4万个应用当中,排名最高的应用来自于艺术和设计领域。
在硅谷工作的王家澍,也在1月拿到了一台Leap Motion样机用于开发测试。这位iOS开发和UI设计师于Carnegie Mellon大学攻读硕士期间,曾做过不少关于虚拟现实和交互的项目。因为有一些Kinect开发的经验,他12月提交申请之后很快就得到了通过的回复,“事实上填写整个申请只花了5分钟的时间”。
不止是Leap Motion,还有一家名为Pebbles Interfaces的以色列公司在手势控制的技术上也前进了一大步。与Kinect或者Leap Motion利用两只摄像头及算法确定物体空间信息的技术不同,Pebbles利用光学元件就实现了手势控制。
“红外线激光打出去,经过这个公司的专利技术的光学元件,使光线带有空间信息,这样的信息可以用很便宜的红外线感应镜头读取。”创投圈CEO李晓宁说,他同时是这家公司的天使投资人之一。 这种技术的好处是成本低廉,并且识别范围可以达到5米。相比起Leap Motion 70美元的价格,Pebbles的元件可以控制在10美元之内,产品体积只有5立方毫米,嵌入谷歌眼镜这样的穿戴式设备中也毫无压力。
经过李晓宁的牵线,Pebbles已经进入中国并找到了合作伙伴—包括手机厂商和智能电视厂商。也许在一年之后,无论是手机操作系统还是客厅,对手势控制的想象将变成现实。
加拿大创业公司Thalmic Labs开发出的MYO臂环也提供了另一种技术上的可能性。MYO臂环借助于蓝牙技术,可与PC、手机等其他设备建立联系,让用户不用触摸就能通过手势控制电子设备。
这家诞生于硅谷创业孵化器Y Combinator的创业公司认为自己可以解决摄像头识别不精确的问题。MYO臂环采用的是一系列传感器和机器学习技术,识别的不是手势,而是用户前臂发出指令时的肌肉变化。
根据这家公司官方网站的一些信息,MYO臂环的捕捉速度非常快,因为在手指移动之前,肌肉已经激活并开始运动了。这个惊人的思路为MYO臂环带来了发布两天突破1万台的预订,它支持Mac OS、Windows、iOS和Android,定价149美元。
看起来算法和摄像头并不是手势控制的唯一方式,包括利用光学组件和传感器,都能够实现类似的解决方案。Leap Motion之所以更引人注意,是因为它的商业化进程更快一些。但眼下谁也不好说,到底哪家创业公司的想法更有道理。
开发者们认为Leap Motion的缺陷还很多,毕竟这是一款新的产品。“比如CPU占用率比较高,主要是算法的原因。”王家澍说。而根据开发者们的试用,在多指控制的情况下,“跟丢”的现象也时有出现;在手掌的倾斜角度大于45度时,控制效果也不如人意。
Pebbles似乎提出了更物美价廉的解决方案,它的识别范围也比Leap Motion高出数倍,但它必须要安装在一些外部设备上,仰赖与其他设备制造商的合作;MYO臂环的定价不具备什么优势,不过它的推广性或许不错,套在手臂上就能操作看起来好像更方便。
从iPhone的出现开始,按钮已经逐步变成了移动设备中可以尽量减少的设计。Google Glass很可能也会在未来终结触摸屏的时代,但具体拿什么来操作Google Glass呢?也许正是手势操作。
同样来自MIT媒体实验室的印度人Parnav Mistry,曾于2009年在TED上展示了一个名为第六感(Sixth Sense)的增强现实设备套装。这个套装用摄像头拍摄下用户的手势和面前所有的景象,并且用它来执行相应的动作。用户可以实现的功能包括用手指拍照,缩放地图,打电话或是查阅电子邮件。
现在,他还对我们透露了另外一个项目Touch:当你用手指在一个界面上点击一块内容(图片,文字等等),然后你去另一个界面再点击一次,那些被选中的文字就转移到了另一个界面上。它的基本原理是云计算。当你的手指进行第一次选择点击的时候,其实你已经把这些选中的信息传到了云上,然后再转移到另一个界面的时候,它们又从云上落到了本地。
站在历史的角度,一个发明一旦在技术上成熟,人们就会习惯性地给它加入人性因素。任何产业、任何产品都是如此。最初人们购买电脑,关心的是各种参数:多大的内存、多大的硬盘、多快的处理速度,但现在这些很多时候都成了最常规的考虑。你会更关心颜色、材质、易用程度,这些都是人性的因素。而在开始认真思考“如何与机器交流”的时候,手势终于又重回我们的视线。如果这个趋势继续发展,不仅是双手,人的整个身体都有可能成为与设备互动交流的工具。
鼠标和iPad都在朝着“成为历史”的方向走去,因为技术的更替无时无刻不在发生,而好的技术发明总是更贴近人的本能需求。总有一天你会不再需要键盘,也不再需要鼠标,甚至不需要实体的屏幕,一切交互都只要简单地抬起手腕,甚至卷蜷食指就足够了。