思而不学则殆。不要指望靠一本哲学经典包打天下,要看看真实世界的科技进展,谁说人类必须被已有的感官奴役的?几年前的人类就可以修改或者说“嫁接”自己的感官了:
从外观上看,这款产品和普通的太阳镜并没有什么太大的区别,跟谷歌眼镜一样,它的前面配备了微型摄像机拍摄图像,然后将图像信息通过一个联有很多细细导线的塑料感应片转变为电信号,再通过电信号不断刺激舌头表面神经,并将这种刺激传到大脑,大脑接下来再将这些刺痛感转化为图像,盲人就可以“看到”图像。
事实上,感觉替代并不是现在才有,盲文便是利用触觉来替代视觉的。早在30年前,美国威斯康星州医科大学的神经学家保罗大夫就发明了第一个“感官交换器”,通过安装在头上的照相机来跟踪视觉图像,再将放在一条带子中的电极贴到人体后背上。在这个装置的帮助下,人们不用转身就能看到身后的物体。
这种原理其实很简单。因为视觉是通过视网膜成像,然后将视觉信息通过视觉神经传递给大脑,当这些视觉信息传递到大脑中特殊的感官区时,他们就被翻译成视觉图像,我们就能看到周围的景象了。在整个过程中,眼睛就等于一个传感器,盲人就相当于传感器出现了问题,而盲人眼镜就是用摄像头取代眼睛来收集视觉信息。
“Brain-Port”的意思是“通往大脑的USB接口”,也就是让大脑与摄像头相连,同时盲人可以用控制器来调节刺激强度、摄像头的对焦、对比度和其他功能等,以此来帮助盲人捕获有用的信息来观察世界。
Wicab CEO Robert Beckman告诉钛媒体,之所以选择用舌头感应,是因为舌头敏感且方便接触。如果换成别的部位来感应,可能需要很强的刺激,整个过程会带来疼痛感。而舌头感应到的电脉冲信号就像香槟气泡在舌尖爆破一样,不会产生疼痛。
这种方式虽然方便,但他也有致命的缺点,那就是“说”和“看”不能同时进行,在说话的时候,感应片不可能贴到舌头上,而且你不能一直在嘴里喊着感应片。
盲人由于长期失明,辨认物体时会有认知困难,且设备只能传输低像素的黑、白、灰图像,也就是看到的是有些模糊的黑白世界,这就意味着很大程度上要用光的强弱来分辨物体,所以在使用设备的时候,要经过将近20小时的培训,让盲人学会用舌头感应图像信息,整个过程就像学骑自行车一样。
因为舌部只能感知形状无法分辨颜色,且盲人由于长期失明,辨认物体时会有认知困难,因此Wicab公司开发了适配智能手机的APP以帮助他们使用Brian Port。APP可以同步Brian Port收集到的图像,并结合图像识别技术分析图像信息,给盲人提供指引。比如,APP可以分析交通信号灯的颜色,帮助盲人过马路。使用者还可以将亲友照片存入手机,在APP的识别和提醒下,盲人就能辨认自己的亲人了。为了降低盲人的使用门槛,APP使用语音播报信息。另外,APP还可以帮助研发人员收集必要数据以改进技术。
你可能以为感官这东西是与生俱来的。实际上,作为一种出生后持续发育的动物,人类的眼睛必须经过反复训练,和运动能力结合,才让我们拥有三维空间感知能力。
腿对空间感的作用比眼睛更重要。通过自主运动,人才能把二维投影的变化和三维坐标转换对应在一起。如果天生腿断了,手也没力气爬,甚至脖子都动不了,就不会有立体感。
之前有人做过实验(略残酷)。在一个很大的盒子内养两只猫,从刚刚能移动的状态养起。其中一只猫可以自主移动,身上固定着一套轻巧的连杆(不妨碍运动);另一只猫不能自主移动,只能根据连杆传导过来的位置被动移动,始终处于和另一只猫对称的位置。这意味着两只猫的看到的景象总的来说完全一致,区别只在于自己是否能控制运动。
事实证明,被动移动的猫没有空间感,虽然被放下来之后也有运动能力,但完全不能判断距离(过了视觉神经发育期);那只主动运动的猫则完全正常。可见动物的空间感不仅来自于眼睛,更来自于自身移动。实际上,刚出生的婴儿是没有视觉可言的,他(她)完全不懂如何处理视网膜上的投影信号。在接下来的两个月,他也只能把特定的图案(如人脸,尤其是妈妈的脸)和某些行为(如喂奶)对应起来。但对他来说,妈妈的脸经常发生大小变化,并没有远近变化的概念。只有在婴儿学会翻身和坐起后,他才能用眼球和手配合跟踪一个运动的物体,才有空间三维视觉。即人类的空间感也来自自身的运动。给一棵树装上眼睛并不能让它获得视觉。
如果没有出生后连续数年的训练,人类本来也不会有正常视觉,甚至二维视觉也需要训练:
所以说,人类本来就具备通过训练来摆脱所谓“感官奴役”的能力。现代医学更是能通过“嫁接”神经,把三维空间结构和特定的神经刺激建立联系,进而打造新型的“视觉”。随着医学和计算机科学的进一步发展,可以预计人类将拥有越来越多的感官。所谓的“感官奴役”,其实是基于19世纪之前医学的错误假设。也许再过20年,就会有人能看见红外线,乃至像蝙蝠那样用声音来感知空间,甚至体会到更多的“味觉”和“触觉”。到那时候还有什么感官奴役问题?有反过来操纵奴隶主的奴隶吗?
相关回答: