星标“医工学人”,第一时间获取医工交叉领域新闻动态~

智能眼镜的交互方式正经历一场静默革命。西北大学和德州仪器的研究团队将可穿戴电极与65纳米节点芯片集成到眼镜中,通过记录眼电、肌电和脑电信号,实现了无需触摸、无需语音的“意念级”控制。这项技术不仅解决了电极位移和个体差异带来的频繁校准难题,更首次在眼镜端完成了数据采集、训练和实时交互的全流程。本文解读其核心技术原理、实验验证与商业化前景。
智能眼镜自诞生以来,一直面临一个尴尬的问题:用户如何与它高效交互? 现有的主流方案有两种,但各有硬伤: 触摸板/触控镜腿:需要精确的手指动作,在运动、双手被占用或戴手套的场景下几乎不可用。更关键的是,它要求用户“主动去找”交互界面,而非让设备“理解”用户。 语音控制:看似自然,但在嘈杂环境、公共场合或需要隐私的场景中,语音指令既不准确也不得体。而且,语音唤醒词的延迟和误触发问题至今未能完美解决。 这两种方案的共同缺陷在于:它们要求用户适应设备,而非设备适应人。 一个更激进的思路是:将控制设备直接集成到可穿戴装置中,通过生理信号(如肌肉电、眼电)来下达指令。过去几年,学术界和工业界都进行过尝试,但始终无法突破三道坎: 电极位移:佩戴者头部微动或眼镜滑落,都会导致电极与皮肤的接触状态改变,信号质量剧烈波动。 身体运动干扰:走路、转头、表情变化等日常动作,会在神经信号中引入大量噪声。 个体差异:每个人的生理信号特征都不同,同一套算法在不同用户身上表现天差地别。 这三重挑战叠加的结果是:系统需要频繁重新校准,用户体验支离破碎。这也解释了为什么市面上至今没有一款真正成熟的“神经信号控制”可穿戴产品。
Credit: Courtesy of ISSCC 西北大学和德州仪器的研究团队给出的答案,是一副集成了10通道模拟前端和神经网络芯片的智能眼镜。它的核心创新不在于某一个单一技术点,而在于构建了一条完整的“神经信号→用户意图”处理流水线。 三类信号,三种控制维度 眼镜上的可穿戴电极可以同时记录三种神经电信号: 信号类型 来源 可实现的交互 眼电图(EOG) 眼球运动产生的电位变化 视觉选择、目光裁剪、 光标控制 肌电图(EMG) 面部肌肉活动 表情输入(如插入Emoji)、无声指令 脑电图(EEG) 大脑皮层电活动 疲劳检测、高级意图识别 芯片上的卷积神经网络:本地学习,实时响应 传统方案需要在云端或手机端处理神经信号,这不仅带来延迟问题,还受限于网络环境。而这项研究将一颗65纳米节点芯片直接集成到眼镜中,芯片内部运行一个卷积神经网络(CNN)。 最关键的设计在于:用户可以通过“神经指令模块”,将自己定义的操作映射到特定的神经活动模式上。例如,用户可以用“眨眼两次”来对应“拍照”,用“咬牙”对应“发送消息”——系统通过少量样本即可学习这些个性化映射。 低功耗神经指令 + 高效LoRA端上学习 —— 这是论文在ISSCC 2026上报告的核心架构创新。LoRA(Low-Rank Adaptation)技术使得芯片可以在极低的算力开销下完成模型微调,无需每次都从头训练。 新旧方案对比

论文中展示了三个具体的应用验证,虽然不是大规模的临床试验,但足以证明技术的可行性: 1. 视觉选择:用眼睛“裁剪”世界 用户通过眼球运动控制眼镜上的摄像头,注视感兴趣的区域后,系统自动裁剪并放大该区域。眼电图信号在这里充当了“空间光标”的角色——无需抬手、无需说话,眼睛看到哪里,系统就跟到哪里。 2. 表情输入:无声的Emoji 在聊天界面中,用户做出特定的面部肌肉动作(例如微笑、挑眉),系统通过肌电图识别后,自动在输入框中插入对应的Emoji。这对于在会议或公共场合快速回复消息的场景尤为实用。 3. 疲劳检测:脑电的“预警”价值 通过持续监测脑电图中的特定频段能量变化,系统可以判断佩戴者是否进入疲劳状态。这对于驾驶员、飞行员或高危作业人员来说,是一个潜在的安全增强功能。 虽然论文摘要未披露具体的准确率和延迟数据(完整数据需查阅ISSCC 2026全文),但其核心价值主张清晰:在不依赖外部计算资源的前提下,实现了多模态神经信号的实时采集、训练与推理。
这项研究的真正意义,不在于它做了一副“能读脑电的眼镜”,而在于它首次验证了端上神经信号处理的可行性。 过去,神经接口的研究要么依赖昂贵的医疗级设备(如脑电帽),要么需要强大的后端计算资源。而65纳米芯片和LoRA端上学习的组合,将计算成本、功耗和体积压缩到了消费级可穿戴设备可以承受的范围。 这为智能眼镜、AR/VR头显、助听器甚至智能手表打开了一扇新的大门——它们不再是被动接收指令的工具,而是可以主动理解用户意图的智能体。 客观来说,这项技术距离大规模商用仍有距离,但路径已经清晰: 短期(1-2年):面向专业场景,如工业维修(双手被占用时的无声控制)、辅助沟通(为语言障碍者提供新的表达通道)、驾驶员疲劳监测。 中期(3-5年):融入高端消费级AR眼镜,成为触摸板和语音之外的“第三交互通道”。 长期:若电极材料和信号处理算法进一步成熟,有望成为可穿戴设备的默认输入方式。 论文作者来自西北大学和德州仪器——前者在神经工程领域积淀深厚,后者是全球领先的模拟芯片和嵌入式处理器厂商。这种“算法+芯片”的跨界合作,本身就意味着技术方案从一开始就考虑了量产可行性和成本结构,而非停留在实验室原型阶段。
在为之兴奋的同时,我们也需要保持一贯的审慎态度: 1. 信号质量的“天花板” 可穿戴电极(非侵入式)的信噪比远低于植入式电极。在剧烈运动或多任务场景下,EOG/EMG/EEG信号的分离和去噪仍是难题。论文未披露在行走、跑步等动态条件下的性能衰减情况。 2. 个体差异的长期适应性 LoRA端上学习虽然降低了校准频率,但不同用户的神经信号特征差异极大。系统能否在数月甚至数年的使用周期内保持稳定,尚无数据支持。 3. 隐私与伦理风险 神经信号是最私密的生理数据之一。如果眼镜持续记录眼电、肌电和脑电,这些数据如何存储、加密、共享?用户是否拥有完全的知情权和控制权?论文未讨论这一维度,而这恰恰是商业化前必须回答的问题。 4. 功耗与续航的实际表现 10通道模拟前端+CNN芯片的功耗数据未在摘要中披露。65纳米节点相对于先进制程(如7nm/5nm)在能效比上并不占优,实际续航能否支撑全天使用,需要打一个问号。 一句话总结:这项研究为智能眼镜的神经交互提供了第一个“端上可用”的系统级解决方案,但距离真正走进消费者的日常生活,还需要跨越信号鲁棒性、长期适应性和隐私保护的“最后一公里”。
A neural interface SoC for smart glasses with low-power neural commanding and efficient LoRA-enabled on-chip learning. In Proc. 2026 IEEE Int. Solid-State Circuits Conference (2026); https://www.isscc.org/program-overview END 撰文 | 郝娅婷 排版 | 王可豪 审核 | 医工学人理事会 扫码加入医工学人,进入综合及细分领域群聊, 参与线上线下交流活动
推荐阅读
Science Advances | 新加坡南洋理工大学、清华大学团队发表新研究:用于机械敏感性心脏电生理的超柔性生物电子接口
点击关注医工学人 直播预告

本篇文章来源于微信公众号: 医工学人








