在线咨询 切换到宽版
eetop公众号 创芯大讲堂 创芯人才网

 找回密码
 注册

手机号码,快捷登录

手机号码,快捷登录

搜全文
查看: 343|回复: 0

[原创] 【IC顶刊洞察】ISSCC-2025.09有哪些热门论文

[复制链接]
发表于 2025-10-29 09:57:16 | 显示全部楼层 |阅读模式

马上注册,结交更多好友,享用更多功能,让你轻松玩转社区。

您需要 登录 才可以下载或查看,没有账号?注册

×

本月核心发现

ISSCC 2025年9月的热门论文显示,AI计算加速仍是绝对主流,其中存内计算(CIM)技术持续深化发展,特别是在全数字化、多精度支持和能效优化方面取得显著进展。同时,大语言模型(LLM)和生成式AI专用处理器成为新的研究热点,高速互连技术支撑着大规模AI系统的数据通信需求。

本月特别关注

本月热门论文中,大语言模型(LLM)和生成式AI相关的处理器设计成为突出亮点,多篇论文专注于解决LLM推理中的外部内存访问(EMA)瓶颈问题。同时,针对扩散模型(DMs)的专用加速器也受到重点关注,显示出生成式AI硬件加速的迫切需求。

本月热门论文领域分布

本月核心发现

ISSCC 2025年9月的热门论文显示,AI计算加速仍是绝对主流,其中存内计算(CIM)技术持续深化发展,特别是在全数字化、多精度支持和能效优化方面取得显著进展。同时,大语言模型(LLM)和生成式AI专用处理器成为新的研究热点,高速互连技术支撑着大规模AI系统的数据通信需求。

本月特别关注

本月热门论文中,大语言模型(LLM)和生成式AI相关的处理器设计成为突出亮点,多篇论文专注于解决LLM推理中的外部内存访问(EMA)瓶颈问题。同时,针对扩散模型(DMs)的专用加速器也受到重点关注,显示出生成式AI硬件加速的迫切需求。

本月热门论文领域分布

48389bf4b4bb4cf811baef4f747248a33461580865931962.png@1192w.jpg



本月重点领域深度分析

1. 存内计算:持续深化与多样化发展本月存内计算领域呈现多样化发展态势:

  • 全数字化趋势明显:多篇论文强调"All-Digital" CIM架构,利用先进工艺节点优势实现更好的可靠性和可移植性。

  • 精度与灵活性并重:支持INT12、BF16、FP16等多种精度,满足不同AI工作负载需求。

  • 能效指标持续突破:出现>6000 TOPS/W/b的惊人能效指标,体现对极致算力的追求。

  • 新型存储器探索:除SRAM外,基于STT-MRAM和增益单元的CIM方案也在探索中。


2. AI处理器:聚焦大语言模型与生成式AI本月AI处理器设计明显转向大模型和生成式AI:

  • LLM专用加速器涌现:多篇论文直接针对Llama、Transformer等大模型优化,设计目标从TOPS/W转变为"每Token能耗"。

  • EMA瓶颈成为焦点:外部内存访问(EMA)被识别为LLM推理的主要能耗来源,多篇论文专注于减少EMA。

  • 扩散模型加速器兴起:针对扩散模型(DMs)的专用加速器开始出现,利用去噪相似性等特性优化。

  • 混合精度计算普及:INT-FP混合精度成为处理大模型的常用策略。


3. 高速互连:支撑AI系统数据血脉随着AI系统规模扩大,高速互连技术持续演进:

  • 200Gb/s+成为新标准:多篇论文展示212.5Gb/s、224Gb/s的收发器设计。

  • Chiplet互连标准化:UCIe、NVLink-C2C等标准推动chiplet生态系统发展。

  • PAM-4调制主导:在高速SerDes中,PAM-4调制成为主流选择。

  • 能效持续优化:目标能效向1pJ/b以下推进。


4. 数据转换器:追求速度与精度的平衡ADC作为系统前端,性能要求持续提升:

  • 超高采样率实现:72GS/s的TI ADC展示了在极高采样率下保持性能的能力。

  • 架构创新活跃:Pipeline-SAR混合架构、噪声整形SAR等新型架构不断涌现。

  • 后台校准技术成熟:基于LMS滤波器的后台校准技术广泛应用。

  • 宽带应用驱动:针对毫米波等宽带应用的前端设计受到关注。


本月关键洞察: ISSCC 2025年9月的热门论文显示,AI硬件加速已进入"大模型时代",研究重点从通用的AI加速转向专门针对LLM、扩散模型等大模型的优化。同时,存内计算技术持续成熟,从概念验证走向实际应用。高速互连和数据转换器作为支撑技术,也在不断突破性能边界。

本月趋势总结与展望

通过对ISSCC 2025年9月50篇热门论文的分析,可以看出半导体行业当前的技术热点主要集中在AI大模型硬件加速、存内计算架构优化、以及支撑大规模AI系统的高速互连技术。

未来展望: 随着大语言模型和生成式AI应用的普及,针对特定AI模型的专用硬件优化将成为重要研究方向。同时,存内计算技术的商业化应用将加速,特别是在边缘AI设备中。3D集成和先进封装技术将继续推动系统级性能提升。

本月重点领域深度分析

1. 存内计算:持续深化与多样化发展本月存内计算领域呈现多样化发展态势:

  • 全数字化趋势明显:多篇论文强调"All-Digital" CIM架构,利用先进工艺节点优势实现更好的可靠性和可移植性。

  • 精度与灵活性并重:支持INT12、BF16、FP16等多种精度,满足不同AI工作负载需求。

  • 能效指标持续突破:出现>6000 TOPS/W/b的惊人能效指标,体现对极致算力的追求。

  • 新型存储器探索:除SRAM外,基于STT-MRAM和增益单元的CIM方案也在探索中。


2. AI处理器:聚焦大语言模型与生成式AI本月AI处理器设计明显转向大模型和生成式AI:

  • LLM专用加速器涌现:多篇论文直接针对Llama、Transformer等大模型优化,设计目标从TOPS/W转变为"每Token能耗"。

  • EMA瓶颈成为焦点:外部内存访问(EMA)被识别为LLM推理的主要能耗来源,多篇论文专注于减少EMA。

  • 扩散模型加速器兴起:针对扩散模型(DMs)的专用加速器开始出现,利用去噪相似性等特性优化。

  • 混合精度计算普及:INT-FP混合精度成为处理大模型的常用策略。


3. 高速互连:支撑AI系统数据血脉随着AI系统规模扩大,高速互连技术持续演进:

  • 200Gb/s+成为新标准:多篇论文展示212.5Gb/s、224Gb/s的收发器设计。

  • Chiplet互连标准化:UCIe、NVLink-C2C等标准推动chiplet生态系统发展。

  • PAM-4调制主导:在高速SerDes中,PAM-4调制成为主流选择。

  • 能效持续优化:目标能效向1pJ/b以下推进。


4. 数据转换器:追求速度与精度的平衡ADC作为系统前端,性能要求持续提升:

  • 超高采样率实现:72GS/s的TI ADC展示了在极高采样率下保持性能的能力。

  • 架构创新活跃:Pipeline-SAR混合架构、噪声整形SAR等新型架构不断涌现。

  • 后台校准技术成熟:基于LMS滤波器的后台校准技术广泛应用。

  • 宽带应用驱动:针对毫米波等宽带应用的前端设计受到关注。


本月关键洞察: ISSCC 2025年9月的热门论文显示,AI硬件加速已进入"大模型时代",研究重点从通用的AI加速转向专门针对LLM、扩散模型等大模型的优化。同时,存内计算技术持续成熟,从概念验证走向实际应用。高速互连和数据转换器作为支撑技术,也在不断突破性能边界。

本月趋势总结与展望

通过对ISSCC 2025年9月50篇热门论文的分析,可以看出半导体行业当前的技术热点主要集中在AI大模型硬件加速、存内计算架构优化、以及支撑大规模AI系统的高速互连技术。

未来展望: 随着大语言模型和生成式AI应用的普及,针对特定AI模型的专用硬件优化将成为重要研究方向。同时,存内计算技术的商业化应用将加速,特别是在边缘AI设备中。3D集成和先进封装技术将继续推动系统级性能提升。

注:资料表格整理后投喂deepseek生成。

原文【IC顶刊洞察】ISSCC-2025.09有哪些热门论文 - 哔哩哔哩


您需要登录后才可以回帖 登录 | 注册

本版积分规则

关闭

站长推荐 上一条 /1 下一条

手机版| 小黑屋| 关于我们| 联系我们| 隐私声明| EETOP 创芯网
( 京ICP备:10050787号 京公网安备:11010502037710 ) |网站地图

GMT+8, 2025-11-7 06:46 , Processed in 0.012428 second(s), 5 queries , Gzip On, Redis On.

eetop公众号 创芯大讲堂 创芯人才网
快速回复 返回顶部 返回列表