马上注册,结交更多好友,享用更多功能,让你轻松玩转社区。
您需要 登录 才可以下载或查看,没有账号?注册
×
本月核心发现 ISSCC 2025年9月的热门论文显示,AI计算加速仍是绝对主流,其中存内计算(CIM)技术持续深化发展,特别是在全数字化、多精度支持和能效优化方面取得显著进展。同时,大语言模型(LLM)和生成式AI专用处理器成为新的研究热点,高速互连技术支撑着大规模AI系统的数据通信需求。 本月特别关注本月热门论文中,大语言模型(LLM)和生成式AI相关的处理器设计成为突出亮点,多篇论文专注于解决LLM推理中的外部内存访问(EMA)瓶颈问题。同时,针对扩散模型(DMs)的专用加速器也受到重点关注,显示出生成式AI硬件加速的迫切需求。 本月热门论文领域分布 本月核心发现 ISSCC 2025年9月的热门论文显示,AI计算加速仍是绝对主流,其中存内计算(CIM)技术持续深化发展,特别是在全数字化、多精度支持和能效优化方面取得显著进展。同时,大语言模型(LLM)和生成式AI专用处理器成为新的研究热点,高速互连技术支撑着大规模AI系统的数据通信需求。 本月特别关注本月热门论文中,大语言模型(LLM)和生成式AI相关的处理器设计成为突出亮点,多篇论文专注于解决LLM推理中的外部内存访问(EMA)瓶颈问题。同时,针对扩散模型(DMs)的专用加速器也受到重点关注,显示出生成式AI硬件加速的迫切需求。 本月热门论文领域分布
本月重点领域深度分析1. 存内计算:持续深化与多样化发展本月存内计算领域呈现多样化发展态势: 全数字化趋势明显:多篇论文强调"All-Digital" CIM架构,利用先进工艺节点优势实现更好的可靠性和可移植性。 精度与灵活性并重:支持INT12、BF16、FP16等多种精度,满足不同AI工作负载需求。 能效指标持续突破:出现>6000 TOPS/W/b的惊人能效指标,体现对极致算力的追求。 新型存储器探索:除SRAM外,基于STT-MRAM和增益单元的CIM方案也在探索中。
2. AI处理器:聚焦大语言模型与生成式AI本月AI处理器设计明显转向大模型和生成式AI: LLM专用加速器涌现:多篇论文直接针对Llama、Transformer等大模型优化,设计目标从TOPS/W转变为"每Token能耗"。 EMA瓶颈成为焦点:外部内存访问(EMA)被识别为LLM推理的主要能耗来源,多篇论文专注于减少EMA。 扩散模型加速器兴起:针对扩散模型(DMs)的专用加速器开始出现,利用去噪相似性等特性优化。 混合精度计算普及:INT-FP混合精度成为处理大模型的常用策略。
3. 高速互连:支撑AI系统数据血脉随着AI系统规模扩大,高速互连技术持续演进: 200Gb/s+成为新标准:多篇论文展示212.5Gb/s、224Gb/s的收发器设计。 Chiplet互连标准化:UCIe、NVLink-C2C等标准推动chiplet生态系统发展。 PAM-4调制主导:在高速SerDes中,PAM-4调制成为主流选择。 能效持续优化:目标能效向1pJ/b以下推进。
4. 数据转换器:追求速度与精度的平衡ADC作为系统前端,性能要求持续提升: 超高采样率实现:72GS/s的TI ADC展示了在极高采样率下保持性能的能力。 架构创新活跃:Pipeline-SAR混合架构、噪声整形SAR等新型架构不断涌现。 后台校准技术成熟:基于LMS滤波器的后台校准技术广泛应用。 宽带应用驱动:针对毫米波等宽带应用的前端设计受到关注。
本月关键洞察: ISSCC 2025年9月的热门论文显示,AI硬件加速已进入"大模型时代",研究重点从通用的AI加速转向专门针对LLM、扩散模型等大模型的优化。同时,存内计算技术持续成熟,从概念验证走向实际应用。高速互连和数据转换器作为支撑技术,也在不断突破性能边界。 本月趋势总结与展望通过对ISSCC 2025年9月50篇热门论文的分析,可以看出半导体行业当前的技术热点主要集中在AI大模型硬件加速、存内计算架构优化、以及支撑大规模AI系统的高速互连技术。 未来展望: 随着大语言模型和生成式AI应用的普及,针对特定AI模型的专用硬件优化将成为重要研究方向。同时,存内计算技术的商业化应用将加速,特别是在边缘AI设备中。3D集成和先进封装技术将继续推动系统级性能提升。 本月重点领域深度分析1. 存内计算:持续深化与多样化发展本月存内计算领域呈现多样化发展态势: 全数字化趋势明显:多篇论文强调"All-Digital" CIM架构,利用先进工艺节点优势实现更好的可靠性和可移植性。 精度与灵活性并重:支持INT12、BF16、FP16等多种精度,满足不同AI工作负载需求。 能效指标持续突破:出现>6000 TOPS/W/b的惊人能效指标,体现对极致算力的追求。 新型存储器探索:除SRAM外,基于STT-MRAM和增益单元的CIM方案也在探索中。
2. AI处理器:聚焦大语言模型与生成式AI本月AI处理器设计明显转向大模型和生成式AI: LLM专用加速器涌现:多篇论文直接针对Llama、Transformer等大模型优化,设计目标从TOPS/W转变为"每Token能耗"。 EMA瓶颈成为焦点:外部内存访问(EMA)被识别为LLM推理的主要能耗来源,多篇论文专注于减少EMA。 扩散模型加速器兴起:针对扩散模型(DMs)的专用加速器开始出现,利用去噪相似性等特性优化。 混合精度计算普及:INT-FP混合精度成为处理大模型的常用策略。
3. 高速互连:支撑AI系统数据血脉随着AI系统规模扩大,高速互连技术持续演进: 200Gb/s+成为新标准:多篇论文展示212.5Gb/s、224Gb/s的收发器设计。 Chiplet互连标准化:UCIe、NVLink-C2C等标准推动chiplet生态系统发展。 PAM-4调制主导:在高速SerDes中,PAM-4调制成为主流选择。 能效持续优化:目标能效向1pJ/b以下推进。
4. 数据转换器:追求速度与精度的平衡ADC作为系统前端,性能要求持续提升: 超高采样率实现:72GS/s的TI ADC展示了在极高采样率下保持性能的能力。 架构创新活跃:Pipeline-SAR混合架构、噪声整形SAR等新型架构不断涌现。 后台校准技术成熟:基于LMS滤波器的后台校准技术广泛应用。 宽带应用驱动:针对毫米波等宽带应用的前端设计受到关注。
本月关键洞察: ISSCC 2025年9月的热门论文显示,AI硬件加速已进入"大模型时代",研究重点从通用的AI加速转向专门针对LLM、扩散模型等大模型的优化。同时,存内计算技术持续成熟,从概念验证走向实际应用。高速互连和数据转换器作为支撑技术,也在不断突破性能边界。 本月趋势总结与展望通过对ISSCC 2025年9月50篇热门论文的分析,可以看出半导体行业当前的技术热点主要集中在AI大模型硬件加速、存内计算架构优化、以及支撑大规模AI系统的高速互连技术。 未来展望: 随着大语言模型和生成式AI应用的普及,针对特定AI模型的专用硬件优化将成为重要研究方向。同时,存内计算技术的商业化应用将加速,特别是在边缘AI设备中。3D集成和先进封装技术将继续推动系统级性能提升。 注:资料表格整理后投喂deepseek生成。 原文【IC顶刊洞察】ISSCC-2025.09有哪些热门论文 - 哔哩哔哩
|