虚拟增强

Fri 18 March 2011

应该说下面的大部分都不是原创,但挺有意思的。

文字->声音->影片/无声->黑白->彩色->3D。目前来说总体趋势应该是不断地逼近人的生理极限。阿西莫夫的《基地》中,第一基地的脑神经研究能成为防护心理史学的手段,引起了第二基地的担忧。估计就人类而言,与脑神经对接的外设将会是终极产品,成为另一种可控意义下的Matrix,这大概就是终极的虚拟增强/虚拟现实。当然说终极夸张了点,应该说是另一个新时代的开端。而在完善的BCI(brain-computer interface)出现之前,就目前的发展水平下,堪称完美的虚拟增强该怎么实现呢?

前些天在办公室闲聊,不知怎么说到现在的裸眼3D显示屏,个人觉得这种3D的实现是相当的不自然,与人的自然使用习惯相当不符合,还要在一定角度和位置才能看到3D,适用面应该比较窄。

终极的3D成像当然是BCI。而目前理想的3D显示技术应该是头戴式的显示。在眼镜或隐形眼镜上做半透明的显示当然也不错,而更好的一种方法是直接投影到视网膜。据说这已经是已有的产品。

其实深入地想一下,这已经可以成为较完备的虚拟增强设备了。

参考某个TED演讲《第六感》,想象这么一个设备,暂且称之为“天眼”,在一个眼镜架上,集成了视网膜投影,眼球动作捕捉,3D scanner/摄像头,另外再集成一个高速的微电脑,与其他设备通讯的无线通讯设备和其他传感器。眼球动作捕捉器能将眼球运动作为输入动作和传感器一起作为输入。摄像头捕获环境图像,如果能采用3D scanner对环境进行3D建模,则显示的问题会简单很多。这样投影时通过在3d模型中确定插入内容的位置就能决定显示的效果。投影到视网膜后,给人的感觉就如同插入的内容本来就在那里的感觉。从而较好地在视觉上实现虚拟增强。再通过与其他设备的通讯,能够将虚拟出来的内容共享给其他“天眼”。如虚拟会议,我虚拟出一块白板,然后与其他人共享,所有人能看到我在上面写写画画,其他人的写写画画也同样能被我共享,而实际中我们可能都对着空气;另如大型3D电影,中央设备根据周围人的位置,把相应的内容直接投影给“天眼”,这样不用想着在2D幕布玩弄技巧,也不用想着复杂的3D物理实现,就能看到可媲美真实情形的任意方位内容;无数科幻电影中的远程面对面交流也不成问题了。。

谁给集成和实现一下吧。。。

ps:现在最火的3D scanner 应该是微软的Kinect吧。