Infinite Reality: Avatars, Eternal Life, New Worlds, and the Dawn of the Virtual Revolution,已经翻译成中文,书名是《虚拟现实:从阿凡达到永生》。不过这本书的内容更多是对未来的一种畅想

虚拟现实往往用洞穴式(CAVE)或者头盔(HMD)系统产生与现实环境隔绝的效果,而MR中往往采用其他的技术达到这个效果,如视网膜投射技术

任何一个领域,必然存在多个流派,人工智能领域也不例外。目前,最重要的三大流派如下:

第一派是符号主义,又称计算机学派,其原理主要为物理符号系统假设和有限合理性原理。其实就是相信计算机的运算能力叠加,将会最终帮助机器获得自由意志。

第二派是联结主义,又称仿生学派,其原理主要为神经网络及神经网络间的连接机制与学习算法。简言之,他们相信模仿人类大脑的构成,可以制造一个相同的大脑。

第三派是行为主义,又称进化主义或控制论学派,其原理为控制论及感知—动作型控制系统。这一派认为智能不需要知识、表示和推理,通过在现实环境中交互,智能行为会逐步得到进化。

20世纪80年代末,D-Pad控制器、远端临场机器人、联网手套,各类控制器层出不穷,无奇不有。Mattel的Power Glove强力手套实际上是NES的外围设备,以VPL专为虚拟现实技术而设计的Dataglove为原型,含有各种技术元素。通过利用光纤传感器,该款笨重的手套控制器可检测用户的手掌活动以及手指的弯曲。它还使用超声波信号传送器,而设在电视显示器周围的信号接收器会对手套进行跟踪

到目前为止,最好的虚拟现实体验当属HTC的Vive与Valve的Lighthouse跟踪系统的结合使用。在该系统中,房间里放有两个传感器来跟踪你的头部、双手和所处的位置。有了两个手持式控制器原型(类似于Oculus Touch)以及按钮和触发器,它几乎可即时地将用户在房间里的走动和精确的手势反映到虚拟世界中。举例来说,摇头避过鲨鱼,捡起大厨的刀具,身体前倾来观看一场小型的RPG战斗。

Virtuix Omni虚拟现实跑步机有点儿科技古玩的味道,但在物理空间有限时它可以给用户带来移动的感觉。FOVE的眼部跟踪系统则给控制和跟现实分不清的环境多增加了一个维度

虚拟现实音乐视频。影片。有人甚至想要让你可以在辛普森家那张著名的沙发看《辛普森一家》

除了HoloLens和Magic Leap技术,目前还有一项在空气中进行全息投影的技术引起了人们的关注。这种技术的原理是通过激光发射器加热空气分子使其电离,从而创造出漂浮的等离子体,而这些等离子体可以发出白光。这项技术的投影设备比较小,今后可能会应用到智能手机或其他便携设备,如Apple Watch,甚至是传说中的Magic Ring

《盗梦空间》中,盗梦者们使用一种名为梦素(somnacin)的药物和一台盗梦机将制造的梦境场景上传到他人的梦境之中,然后其他几个连入机器的盗梦者也会进入对方的梦境。在现实中,这种读取他人思想的装置其实已经有了,那就是核磁共振扫描仪(MRI)。加利福尼亚大学伯克利分校的神经系统科学家杰克·加朗特曾采用MRI技术模拟实验者大脑的视觉系统算法,从而绘制出大脑活动图像。而日本国际电气通信基础技术研究所(简称ATR)的计算神经系统科学实验室则开发出了另一种偷取图像的技术。实验室科学家可以通过分析大脑视觉皮层中的血流重现实验者所观察的黑白图像。

“为什么人类观察到的世界是立体的?”经过一系列的研究后,他发现,原因很简单,每个人都长着两只眼睛。人的双眼之间相隔58~72毫米,在观察物体时,两只眼睛所观测的位置和角度都存在一定的差异,因此每只眼睛所观察到的图像都有所区别。和眼睛相隔不同距离的物体在双眼上所投射的图像在其水平位置上会有差异,这就形成了所谓的视网膜像差,或是所谓的双眼视差。用两只眼睛同时观察一个物体时,物体上的每个点对两只眼睛都存在一个张角。物体离双眼越近,其上的每个点对双眼的张角就越大,所形成的双眼视差也越大。当然,人的大脑还需要根据这种图像差异来判断物体的空间位置关系,从而使人产生立体视觉

双眼视差可以让我们区分物体的远近,并获得深度的立体感。对于离我们过于遥远的物体,因为双眼的视线几乎平行,视差偏移接近于零,所以就很难判断物体的距离,更不可能产生立体感觉了。一个典型的例子就是当我们仰望星空时,会感觉天上所有的星星似乎都在同一个球面上,不分远近,这就是双眼视差为零造成的结果。

重现立体三维图像:偏振光分光3d显示。图像分色立体显示。杜比图像分色。分时显示技术。HMD头显技术。

HDM头戴显示技术的基本原理是让影像透过棱镜反射之后,进入人的双眼在视网膜中成像,营造出在超短距离内看超大屏幕的效果,而且具备足够高的解析度

直接内置屏幕显示图像的HMD显示屏技术,还有一种视网膜投影技术


多感知自然交互


动作捕捉
实现手势识别和动作捕捉的主流技术分为两大类,一类是光学动作捕捉,一类非光学动作捕捉。光学动作捕捉包括主动光学捕捉和被动光学捕捉,而非光学动作捕捉技术则包括惯性动作捕捉、机械动作捕捉、电磁动作捕捉甚至超声波动作捕捉。而从动作捕捉的范围来看,又分为手势识别、表情捕捉和身体动作捕捉三大类
实现手势识别和动作捕捉的主流技术分为两大类,一类是光学动作捕捉,一类非光学动作捕捉。光学动作捕捉包括主动光学捕捉和被动光学捕捉,而非光学动作捕捉技术则包括惯性动作捕捉、机械动作捕捉、电磁动作捕捉甚至超声波动作捕捉。而从动作捕捉的范围来看,又分为手势识别、表情捕捉和身体动作捕捉三大类

在众多动作捕捉技术中,机械式动作捕捉技术的成本低,精度也较高,但使用起来非常不方便。超声波式运动捕捉装备成本较低,但是延迟比较大,实时性较差,精度也不是很高,目前使用的比较少。电磁动作捕捉技术比较常见,一般由发射源、接收传感器和数据处理单元构成。发射源用于产生按一定规律分布的电磁场,接收传感器则安置在演员的关键位置,随着演员的动作在电磁场中运作,并通过有线或无线方式和数据传输单元相连。电磁式动作捕捉技术的缺点是对环境要求严格,活动限制大。惯性动作捕捉技术也是比较主流的动作捕捉技术之一。其基本原理是通过惯性导航传感器和IMU(惯性测量单元)来测量演员动作的加速度、方位、倾斜角等特性。惯性动作捕捉技术的特点是不受环境干扰,不怕遮挡,采样速度高,精度高。
光学动作捕捉技术最常见,基本的原理是通过对目标上特定光点的监视和跟踪来完成动作捕捉的任务,通常基于计算机视觉原理。典型的光学式动作捕捉系统需要若干个相机环绕表演场地,相机的视野重叠区就是演员的动作范围。演员需要在身体的关键部位,比如脸部、关节、手臂等位置贴上特殊的标志,也就是“Marker”,视觉系统将识别和处理这些标志。当然,现在已经出现了不需要“Marker”标志点的光学动作捕捉技术,由视觉系统直接识别演员的身体关键位置及其运动轨迹。光学动作捕捉技术的特点是演员活动范围大,而且采样速率较高,适合实时动作捕捉,但是系统成本高,而且后期处理的工作量比较大。
最经常使用动作捕捉技术的莫过于游戏、动画和电影行业了

Kinect设备基于3D深度影像视觉技术,或者叫结构光3D深度测量技术。Kinect的机身上有3个镜头,中间是常见的RGB彩色摄像头,左右两侧则是由红外线发射器和红外线CMOS感光元件组成的3D深度感应器,Kinect主要就是靠这个3D深度感应器来捕捉玩家的动作。中间的摄像头可以通过算法来识别人脸和身体特征,从而辨识玩家的身份,并识别玩家的基本表情。Kinect所使用的红外CMOS感光元件是一个单色感应器,可以在任何环境光环境下捕捉3D的视频数据。它以黑白光谱的方式来感知外部环境,其中纯黑色代表无穷远,纯白色代表无穷近,而之间的灰色地带则对应物体到传感器的物理距离。这个感应器会收集视野范围内的每一点,并形成代表周围环境的景深图像,从而实时3D的在线周围环境。在获得景深图像后,Kinect会使用算法来辨识人体的不同部位,将人体从背景环境中区分出来,并最终形成人体的骨骼模型跟踪系统


眼动追踪
眼动追踪的原理其实很简单,就是使用摄像头捕捉人眼或脸部的图像,然后用算法实现人脸和人眼的检测、定位和跟踪,从而估算用户的视线变化。目前主要使用光谱成像和红外光谱成像两种图像处理方法,前一种需要捕捉虹膜和巩膜之间的轮廓,而后一种则跟踪瞳孔轮廓。
==眼动追踪技术还可以帮助残障人士输入文字、操控键盘、进行音乐演奏等。==


语音识别
语音识别包含了特征提取、模式匹配和模型训练3方面的技术,涉及的领域很多。


触觉技术
又被称作所谓的“力反馈”技术,在游戏行业和虚拟训练中一直有相关的应用。具体来说,它会通过向用户施加某种力、震动或是运动,让用户产生更加真实的沉浸感。触觉技术可以帮助在虚拟的世界中创造和控制虚拟的物体,训练远程操控机械或机器人的能力,甚至是模拟训练外科实习生进行手术。
触觉技术通常包含3种,分别对应人的3种感觉,即皮肤觉、运动觉和触觉
Interactor Vest,==一个可穿戴的力反馈装置,可以检测音频信号,并使用电磁作动器将声波转化成震动==


嗅觉
在旧金山举行的GDC 2015游戏开发者大会上,Oculus Rift就带来了一款能够提供嗅觉交互的配件,可以让用户体验嗅觉和冷热等效果。这款配件由FeelReal公司研发,是一个类似面具的产品,其中内置了加热和冷冻装置、喷雾装置、震动马达、麦克风,还有“能提供7种气味的可拆卸气味发生器”。这7种气味包括海洋、丛林、草地、花朵、火焰、粉末和金属


数据手套和数据衣
可以分为动作捕捉数据手套和力反馈数据手套两种。动作捕捉数据手套的主要作用就是捕捉人体手部的姿态和动作,通常由多个弯曲传感器组成,可以感知手指关节的弯曲状态。力反馈手套的主要作用则是借助手套的触觉反馈能力,让用户“亲手”触碰虚拟世界中的场景和物体,并在与使用计算机制作的三维场景和物体的互动中真实感觉到物体的震动和力反馈。
数据手套只能满足人体手部进行自然交互的需求,如果需要让人体多个部位都能感觉到虚拟世界中的反馈,就需要用到数据衣。和数据手套类似,数据衣也分为动作捕捉数据衣和感知反馈数据衣两种。动作捕捉数据衣是为了让虚拟现实系统识别人体全身运动而设计的输入装置,这里就不再赘述了。感知反馈数据衣的作用不是输入,而是输出。通过感知反馈数据衣,当虚拟世界的环境和物体通过物理规律对代表用户的虚拟形象产生作用时,如刮风、下雨、温度变化、受到虚拟人物的攻击、物体抛掷或降落等,通过触觉反馈装置和多感知反馈装置让用户产生身临其境的感觉。


模拟设施

3D建模

google glasses

microsoft hololens

增强现实的5个步骤:环境数据采集、实时三维重构、三维场景识别,物理建模与仿真和实时CG图像渲染

新的电脑交互方式 解放双手 leap motion

似乎很多玩家都有这么个心愿:玩游戏的同时还能减肥。今天借助Virtuix Omni的“跑步机”,终于离梦想更近了一步。 跑步机 允许大家无限制的往前走

Virtuix Omni还专门打造了一双鞋,玩家穿着这双鞋在主机上滑行特别顺畅。鞋上面的跟踪器是整套系统的核心。每个脚上面有一个,检测玩家的脚移动速度从而反馈到游戏里面。

虽然感觉的类型很多,不过我们可以按照外部刺激物的特性分为3类——化学的(比如味觉和嗅觉)、机械的(比如触觉、听觉)和光学的(视觉)。据说某些动物还有电感觉和磁感觉。当然,如果要完全百分百模拟人体所能感知的所有感觉,那么唯有一种方式,那就是直接刺激人的大脑,而非刺激人的外部感觉器官。

NeuroSky产品的基本原理是通过干态电极传感器采集大脑产生的生物电信号,并将这些采集的信号送入Thinkgear芯片,经过降噪处理和放大后,通过Esense算法解读出使用者当前精神状态的若干参数(专注度、放松度)等,最后把这些量化的参数输出到电脑和手机等计算设备,实现基于脑电波的人机交互,或是俗称的意念控制。

整个计算机的发展史都离不开军事战争的推进力。我们不从道德的角度去评判,但这就是事实。1946年,第一台电子计算机ENIAC的诞生就是宾州大学Mauchly博士和学生Eckert应美国军方要求设计的。而20世纪60年代,美军对开发复杂计算机网络的要求又使万维网诞生了。

虚拟医疗

美国路易斯维尔大学的心理治疗师目前正在尝试使用虚拟现实技术来治疗某些特定的恐惧症,如广场恐惧症、幽闭恐惧症、恐飞症等。通过提供一种可控的虚拟现实模拟环境,患者可以在其中面对自己的恐惧和焦虑,甚至学会如何应对。比如对参加职场面试或商业谈判有强烈焦虑感觉的患者可以通过这种方式模拟应对,并最终克服心理障碍。

暴露疗法。ptsd。疼痛管理。控制假肢缓解疼痛。自闭患者的社会认知训练。冥想切换场景通过呼吸控制游戏。帮助残疾人例如一个5岁的小儿麻痹症患者在虚拟现实的世界中徜徉在草地上,而几十名患有白血病的儿童在梦幻一般的迷你鱼缸中自由“游泳”。 实现老人心愿等

虚拟教育。

虚拟社交。

目前的虚拟设备功能主要由两块组成,一是对使用者的移动进行捕捉,二是根据捕捉所获得的数据输出3D影像与声音

投资。一些中国公司 找工作可以了解一下

虚拟现实的成熟还需要过程,当前存在3个问题待解决:

● 用户需通过“普适产品”大规模的培养。

● 用户体验是最重要的因素:体验需持续优化解决眩晕、感情恐惧等问题。

● 内容和应用的开发:内容不足,杀手级应用空缺。

END