”微软表示,通过与研发ChatGPT的OpenAI公司合作,必应会构建于一个新的大型语言模型上,比ChatGPT更强大。
非负矩阵分解是挖掘高维数据潜在结构的核心技术,广泛应用于推荐系统、生物信息学、图像处理等多个领域。北京大学人工智能学院孙仲研究员团队瞄准这一技术,设计了一种模拟计算芯片,为大规模数据处理提供了全新高效方案。和当前先进数字芯片相比,计算速度可提升约12倍,能效比提升超过228倍,相关成果已于近日发表于《自然·通讯》。
孙仲1月22日告诉科技日报记者,非负矩阵分解是一种强大的“数据降维”技术。它能从巨量且庞杂的用户行为、图像像素等信息中,提炼出潜在的模式与特征,在图像分析、信息聚类、个性化推荐等领域具有广泛应用。但面对如今动辄百万级规模的数据集,传统数字硬件受计算复杂度和内存瓶颈限制,难以满足实时处理需求。
孙仲团队一直研究模拟计算。模拟计算直接利用物理定律实现并行运算,延时低、功耗低,在算力瓶颈背景下,具有先天优势。团队此次研制出了基于阻变存储器(RRAM)的非负矩阵分解模拟计算求解器,并创新性设计了一种可重构紧凑型广义逆电路,通过电导补偿原理,用最少的计算单元实现相同运算功能,对非负矩阵分解过程中最核心的计算步骤进行了优化,实现一步求解,极大优化了芯片的面积与能耗表现。
为验证芯片性能,研究团队搭建了测试平台,在典型场景中进行验证。在图像压缩任务中,和在全精度数字计算机上运行的结果相比,图片精度损失相差无几,还节省了一半的存储空间;在推荐系统应用中,其预测误差率和数字芯片计算结果高度相近。在MovieLens 100k数据集推荐系统训练任务中,与主流可编程数字硬件相比,该模拟计算器实现了212倍的速度提升和4.6万倍的能效提升;在网飞(Netflix)规模数据集的推荐系统训练任务中,其计算速度较先进数字芯片提升约12倍,而能效比提升超过228倍。
“这项工作为非负矩阵分解这类约束优化问题的实时求解开辟了新路径,展现了模拟计算处理现实复杂数据的巨大潜力。”孙仲表示,该研究可为实时推荐系统、高清图像处理、基因数据分析等场景带来技术革新,助力人工智能应用向更高效、更低功耗方向发展。(记者张盖伦) 【编辑:付子豪】
——江苏省省长许昆林近日谈优化营商环境 (本报记者何聪整理)。
- 今日热点
- 看图学习丨开局之年第一课 总书记深刻阐述中国式现代化
- 重庆全面推行“智慧林长”云平台应用
- 你好 我的城丨西安站的“电梯保姆”
- 【专题】贵州水利水电职业技术学院—新华网
- 假期“收心” 调整心态,六步轻松切换“开学模式”!-教科研成果
- 视评两会:从“微镜头”中感悟大国领袖的人民情怀