用于模拟-信息转换的传感器内人工智能电路降低传感器能耗
用于模拟-信息转换的传感器内人工智能电路降低传感器能耗:
近日,亚利桑那州立大学(Arizona State University)介绍了一种片上模拟-信息转换技术,该技术利用基于储层计算范式的模拟超维计算,在本地传感器内处理心电图(electrocardiograph,ECG)信号,并将射频(RF)传输减少三个数量级以上。射频传输是无线传感器功耗产生的主要因素,因此,本地传感器内信号处理优于连续射频传输,尤其对于生物医学传感器。例如,低功率MedRadio传输器的功耗为67μW,明显高于片上特征提取。片上模拟-信息转换器不是传输稀疏的ECG信号或提取的特征,而是通过一个附有人工神经网络的非线性存储内核来分析ECG信号,并传输预测结果。所开发的技术被证明可用于检测败血症发作,并实现了超高的准确度和能效,同时使用65nm CMOS原型测试芯片将传感器功耗降低了159倍。虽然有几种技术可以压缩射频传输,但压缩比通常限制在<20倍。迄今为止,压缩射频传输的方法有基于稀疏性的数据压缩算法、基于导数的自适应采样、过电平采样和自适应分辨率数字化。据报道,上述技术已将传输数据压缩了2∼16倍。由于人工智能算法是计算密集型的,因此设计低能耗的传感器内神经网络具有挑战性。在这项工作中,MIMIC–III数据集的ECG信号被用于证明通过传感器内人工智能进行模拟-信息转换技术的可行性。然而,在实际的家庭监护应用中,所获取的ECG信号可能包含伪影,在将ECG信号发送到RC+ANN组合之前,需要经过具有带通滤波模拟前端(analog front-end,AFE)的处理。AFE将消耗额外的功率,这将降低这项技术相对于传输所有传感器数据的传统方法的能耗优势。因此,传感器内人工智能技术将高能效的设计挑战从传输转移到了AFE。通过基于反相器的放大器设计和反相器堆叠可以潜在地提高AFE能源效率,以降低传感器的总能耗。与现有技术相比,研究人员提出将人工智能(artificial intelligence,AI)嵌入传感器本身,以分析每个ECG片段,并仅传输预测分数,而不是ECG数据或提取的特征,以将射频传输降低5000倍以上。本项工作在电路方面的限制是研究人员设计的电路比最先进的基于SRAM的人工智能电路的面积效率低。这种面积限制主要是由于使用开关电容电路作为矩阵乘法的构建块,其面积效率低于SRAM单元。本设计中使用的金属对金属(metal-on-metal)电容器的面积密度(以fF/μmm²表示)没有晶体管的面积密度大,因此SRAM电路相对于RC+ANN的面积效率优势可能会随着CMOS技术的扩展而增大。由于输入层和存储层中的计算可能是非线性的,所以提高RC+ANN的面积效率的潜在解决方案是在输入层和存储层中采用SRAM阵列进行矩阵乘法,并且仅在需要更高线性度的情况下使用开关电容电路进行基于ANN的读出。在本项工作中,为了解决无线生物医学传感器中的能量瓶颈,研究人员提出了一种直接处理模拟ECG样本的模拟信号处理神经网络。这项工作的主要贡献是设计和演示了一种片上模拟分类器,其由一个储层计算机(reservoir-computer,RC)和一个三层人工神经网络(artificial neural network,ANN)组成,用于处理模拟ECG片段。与数字基线(前端ADC和数字ANN)相比,能耗降低了13倍;与直接传输数字化ECG片段相比,传感器总能耗降低了159倍。传感器内处理AI电路主要用于CMOS图像传感器,通过执行片上特征提取来减少需要传输到传感器外的数据量。据研究人员所知,这项工作提出了第一个用于模拟-信息转换的传感器内人工智能电路,以显著降低可穿戴生理传感器的传输能量,并延长此类无线传感器的电池寿命。
论文链接:
https://www.nature.com/articles/s41598-022-23100-4