,人们几乎会以为这只是一副设计前卫的高端眼镜。
“我们认为,ar设备想要真正普及,首先必须让人们愿意戴上它,自然地融入日常生活。”林风解释道,直指当前ar设备普遍存在的“傻大黑粗”痛点。
而“未来之眼”的内在,更是蕴藏着未来智能最顶尖的技术结晶:
“视网膜级”光波导显示: 采用了业界最领先的衍射光波导技术和icro-led微显示屏,能够在镜片上投射出高亮度、高分辨率、宽视场角的全彩虚拟图像,并且透光率极高,几乎不影响对现实世界的正常观察。图像如同悬浮在眼前数米之外,清晰、稳定、无眩晕感。
“启明”ar专用芯片: 搭载了一颗专门为ar应用深度优化、代号为“启明-视界”(qig-vision)的超低功耗ai芯片。它不仅提供强大的图形渲染能力,更重要的是,集成了专门用于空间感知(s)、手势识别、眼球追踪、以及端侧ai推理的硬件加速单元。
“风ai”深度赋能: 这才是“未来之眼”真正的灵魂所在!它并非一个孤立的硬件,而是与“风ai”云端智能紧密协同。眼镜内置的ai能够实时理解佩戴者所处的环境、识别眼前的物体、理解用户的语音指令和视线焦点,并结合云端“风ai”的知识库和推理能力,在用户眼前精准地叠加情境相关的虚拟信息和交互界面。
多模态自然交互: 用户可以通过语音(集成降噪麦克风阵列)、眼球注视(高精度眼动追踪)以及自然手势(前置摄像头捕捉)与“未来之眼”进行流畅的交互,彻底摆脱了对手机或手柄的依赖。
接下来的演示环节,彻底点燃了全场的热情:
实时翻译“所见即所得”: 演示者戴着“未来之眼”看向一份外文报纸,镜片上瞬间浮现出精准的中文翻译,完美叠加在原文之上。当他与一位讲法语的工作人员对话时,对方的话语会以实时字幕的形式出现在他的视野中。这正是“译语”ai能力的完美硬件呈现。
ai情境智能助手: 演示者看着桌上的一盆绿植,“未来之眼”立刻识别出其种类并显示养护要点;他望向窗外的一栋历史建筑,关于建筑的介绍和相关趣闻便浮现在眼前;他询问“帮我预定今晚七点楼下