在现实生活中,我们依赖各种器官去听、去看、去说。但总有些人,因为先天或是后天的因素,导致失明、失聪、失语。世界有多美?他们看不到;音乐多悦耳?他们听不见。智能感应科技的出现最早是为了盲人能够“看见”,让耳聋者能够“听见”。通过感应科技,人与计算机之间创建、实现了新的交互模式。
来自MIT媒体实验室的Gershon Dublon最新研发的Tongueduino技术是将一个3 x3的电极垫,放置在舌头上,电极垫通过一个Arduino控制器运行,并连接到几个环境传感器中的一个上。每个传感器都可以记录电磁场,视觉数据,声音、环境中的物体移动等任何可以被转换成电信号的东西。理论上说,该技术能够帮助失明或失聪的用户,用舌头“看到”或“听到”东西,让他们感觉自己身体好像获得了“超人类”的灵敏感知。
舌头上的触觉可以直接反馈给大脑。让我们的大脑直接通过舌头去听,去看,去触摸,去闻这个世界了。
对吃货又怕发胖的人士也很有好处啊,以后品尝美食不用非得塞到自己嘴巴咽下去了,用智能感知技术就可以把美食品尝了,而不用吃下多余的卡路里。
图为Gershon Dublon,他是麻省理工学院媒体实验室(MITMedia Lab)的博士生,他在那里为探究传感器数据开发了新工具。在他的研究中,他认为分布式传感器网络形成一个集合电子神经系统,新系统如同假肢一样通过新接口实现包括视觉、听觉和触觉在内的感知功能。这些接口可以置放于身体和周围环境中。