logo

重大突破!清华大学团队研发AI光芯片赋能大模型算力

发布时间:2024-04-12

记者11日从清华大学获悉,针对大规模光电智能计算难题,清华大学电子工程系副教授方璐课题组、自动化系戴琼海院士课题组,摒弃传统电子深度计算范式,另辟蹊径,首创分布式广度光计算架构,研制大规模干涉-衍射异构集成芯片太极(Taichi),实现160 TOPS/W的通用智能计算。

在如今大模型通用人工智能蓬勃发展的时代,该科研成果以光子之道,为高性能算力探索新灵感、新架构、新路径。相关科研成果发表于最新一期的国际期刊《科学》。

化“深”为“广”:分布式广度光计算架构。

智能光计算作为新兴计算模态,在后摩尔时代展现出远超硅基电子计算的性能与潜力。然而,其计算任务局限于简单的字符分类、基本的图像处理等。其痛点是光的计算优势被困在不适合的电架构中,计算规模受限,无法支撑亟须高算力与高能效的复杂大模型智能计算。

方璐在接受科技日报记者采访时表示:“相异于电学神经网络依赖网络深度以实现复杂的计算与功能,太极芯片架构源自光计算独特的‘全连接’与‘高并行’属性,化深度计算为广度计算。我们建立了自顶向下的编码拆分-解码重构机制,将复杂任务拆分为多通道高并行的子任务,构建了分布式‘大感受野’浅层光网络对子任务分而治之,突破模拟计算多层深度级联的固有误差。”

方璐说:“研发芯片时,受周易典籍中‘易有太极,是生两仪’启发,建立片上干涉-衍射联合传播模型,融合衍射光计算大规模并行优势与干涉光计算灵活重构特性,以时序复用突破通量瓶颈,为片上大规模通用智能光计算探索了新路径。”

两仪一元:干涉-衍射融合计算芯片。

据介绍,太极光芯片的计算能效超现有智能芯片2—3个数量级,将可为百亿像素大场景光速智能分析、百亿参数大模型训练推理、毫瓦级低功耗自主智能无人系统提供算力支撑。

(受访者供图)



来源:科技日报