人工智能驱动的集成电路设计:技术、挑战与机遇综述
25年9月来自比利时鲁汶天主教大学的论文“AI-Driven Integrated Circuit Design: A Survey of Techniques, Challenges, and Opportunities”。
模拟和射频集成电路 (RFIC) 设计传统上以其固有的复杂性、对人工迭代的依赖以及对特定领域启发式方法的依赖而著称。然而,近年来,人工智能 (AI) 和机器学习 (ML) 的进步推动这一领域的变革性转变。本综述系统且前瞻性地回顾应用于关键设计和测量阶段的 AI 方法,包括进化算法、贝叶斯优化、强化学习、深度学习和大语言模型,这些阶段包括电路拓扑和结构综合、电路优化、布局自动化以及芯片后校准和故障诊断。通过将这些技术映射到模拟和 RFIC 开发流程的每个阶段,其识别出新兴趋势、持续存在的挑战(例如泛化和数据效率),以及迈向完全自主、可扩展和创新驱动的模拟/RFIC 设计的路径。除了电路设计之外,这一不断发展的生态系统预计还将重塑更广泛的电子设计自动化 (EDA) 领域。
历史上,模拟和射频集成电路 (RFIC) 的设计一直依赖于专家的直觉和耗时费力的迭代改进过程 [1]。与受益于广泛自动化的数字电路不同,模拟电路设计由于其连续信号的特性以及多个性能指标之间敏感的权衡关系,面临着更大的挑战 [2]。传统上,这涉及基于成熟方法(例如 gm/ID 方法 [3])的手动参数调整,然后通过计算量巨大的 SPICE 和电磁 (EM) 仿真进行验证。对于射频和毫米波电路而言,这一挑战尤为严峻,因为布局相关的寄生效应主导着性能,需要进行成本高昂且耗时的分析 [4]、[5]。
为了应对这些挑战,电子设计自动化 (EDA) 越来越多地融合人工智能 (AI),其发展轨迹可从文献发表趋势中看出。2018 年之前的早期研究主要集中在基础机器学习和优化方法上,例如进化算法 (EA) 和贝叶斯优化 (BO),这些方法提高电路尺寸等核心任务的效率 [6]、[7]。2018 年左右,深度学习 (DL) 和强化学习 (RL) 的引入带来一个重要的转折点。包括卷积神经网络 (CNN) 和图神经网络 (GNN) 在内的深度学习架构能够捕捉控制电路行为的高度复杂的非线性关系 [8]。这种能力使得复杂射频集成电路 (RFIC) 设计的自动化成为可能,最近的研究成功地对具有布局相关效应的高频元件进行了建模——这些元件此前被认为在没有专家干预的情况下难以处理 [9]、[10]。自 2023 年以来,随着生成式人工智能(尤其是大语言模型 (LLM))相关出版物的激增,这一趋势进一步加速。
凭借先进人工智能模型处理如此复杂问题的能力,人工智能在电子设计自动化 (EDA) 领域的应用前景已显著扩展。其目标已从自动化孤立任务转向开发能够提供端到端设计的智能系统。新一代人工智能工具旨在管理整个工作流程,既可以作为辅助人类工程师的人工智能副驾驶,也可以最终成为自主的人工智能设计师。其应用范围涵盖拓扑综合、初始尺寸确定和布局生成,并延伸至芯片后阶段,例如自动化测试和性能调优 [11]、[12]、[13]、[14]。
本综述全面概述人工智能驱动的电路设计变革。其追溯人工智能方法论的演变及其在整个设计流程中的应用,从优化和布局等核心任务到高级拓扑综合。此外,通过回顾关键数据集评估该领域的现状,并概述未来智能端到端电路设计的发展方向。本综述的组织如图所示。

人工智能在电子设计自动化领域的快速集成促使大量文献涌现,旨在对这一充满活力的领域进行综述。现有综述提供了关于这一发展进程的宝贵视角,尽管这些视角往往较为专业化[14]、[15]、[16]、[17]、[18]、[19]、[20]、[21]、[22]。一些综述侧重于特定人工智能范式在更广泛的EDA领域中的应用,例如强化学习[18]、图神经网络[19]或更广泛的用于EDA和FPGA的机器学习[21]。Afacan[15]提供一个涵盖综合、布局和测试的更全面概述。其他一些工作则采用以应用为中心的方法,回顾特定领域内的各种人工智能技术,例如AMS设计[16]、通用VLSI设计[17]或天线设计[20]。
近年来,随着先进生成技术的日益普及,研究人员对用于模拟集成电路设计的生成式人工智能(包括LLM和GNN)进行系统性综述[14]。尽管这些综述至关重要,但它们往往只关注特定的人工智能方法或设计流程的某个子集。一些综述重点介绍了物理设计方面的创新,但并未提供全面的、涵盖整个流程的分析[22]。
通过在拓扑综合、参数优化、物理布局和后硅操作等各个环节应用人工智能,设计人员能够更好地克服模拟和射频集成电路(RFIC)开发中固有的复杂性。
下表概述人工智能在电路设计流程关键阶段的集成,展示人工智能技术如何逐步取代传统的 EDA 方法。通过在拓扑综合、参数优化、物理布局和芯片后处理等环节应用人工智能,设计人员能够更好地克服模拟和射频集成电路 (RFIC) 开发中固有的复杂性。

电路拓扑和结构综合涉及生成或选择满足特定功能需求的电路架构。传统方法通常依赖于设计人员的专业知识和特定领域的启发式方法。相比之下,人工智能驱动的方法已展现出挖掘非直观但高性能拓扑结构的能力,这些拓扑结构在效率、紧凑性和性能权衡方面可能超越人工设计的同类结构[42],[49]。
电路优化涉及对晶体管级参数(例如沟道尺寸、偏置电流和无源元件值)进行微调,以满足增益、带宽、噪声系数和功率效率等性能指标。在人工智能辅助的设计流程中,通过使用代理模型(surrogate)显著增强了这一阶段,代理模型可以近似模拟复杂的器件行为,从而降低仿真成本[166]。此外,逆向设计方法(人工智能将高级规范直接映射到设计参数)已成为一种强大的范式[9]。
电路布局:布局和布线 (P&R) 是将电路原理图在硅片上进行物理实现的过程,设计决策必须考虑寄生参数、信号完整性以及是否符合设计规则。由于其复杂性以及与早期设计阶段的相互依赖性,P&R 一直是设计瓶颈。然而,人工智能 (AI) 已开始革新这一领域,它利用基于图的模型和强化学习代理,从以往的布局和设计模式中学习,从而实现布局生成的自动化 [191]、[193]。
电路测试和自适应:校准、故障诊断、自愈和可靠性评估对于确保制造后的正确性、良率优化和长期鲁棒性至关重要。AI 模型已被越来越多地用于预测故障分类和定位,并促进对工艺敏感模块的实时校准 [13]、[206]。
这些进步标志着从孤立的优化到集成智能设计生态系统的变革性转变。
人工智能在电路拓扑和新型结构综合中的应用
人工智能正日益被应用于拓扑综合这一雄心勃勃的任务中,即根据一组基本元件和设计规则自动生成新型电路架构。这一方向标志着端到端设计自动化取得了重大进展,并有可能发现性能、效率或紧凑性方面优于人工设计的电路拓扑。
传统的模拟电路设计很大程度上依赖于经过数十年不断完善的成熟拓扑结构。虽然基于模板的生成器[219]、[222]和诸如伯克利模拟生成器 (BAG) [139] 之类的程序生成器可以自动初始化和调整这些已知拓扑结构的大小,但人工智能驱动的拓扑综合旨在探索更广泛的设计空间。
1)用于拓扑生成的进化算法
早期方法通常使用进化算法(EA)进行拓扑生成。遗传算法(GA)是进化算法的一个子集,由于它可以演化出代表电路的树状结构,因此也适用[42],[45]。在这些系统中,“基因”可以代表基本元件(晶体管、电阻器、电容器)和连接,而进化算子(交叉、变异)则组合和修改这些元素以创建新的电路拓扑。每个生成的拓扑的适应度通常通过仿真来评估其是否符合所需的性能指标。
2) 用于拓扑生成的强化学习
近年来,强化学习已被应用于拓扑合成。设计过程可以建模为一个序列决策任务,其中强化学习智体学习如何添加元件和连接来构建电路。
图神经网络(GNN)也发挥着作用,通常与强化学习(RL)或其他生成模型结合使用。由于电路天然地以图形式表示,GNN 可以学习理解、操作和生成电路图结构。
3) 用于拓扑生成的生成模型
生成模型,例如生成对抗网络 (GAN) 和扩散模型,正逐渐成为强大的工具。虽然它们在复杂模拟拓扑合成方面的应用仍处于起步阶段,但它们有望生成新颖多样的电路结构。
4) 讨论
人工智能驱动的拓扑合成面临的挑战在于如何定义一种合适的电路表示方法,以便人工智能算法能够有效地探索和操作电路。管理高维搜索空间,并确保生成的拓扑结构在物理上可实现且满足性能约束,也是重要的挑战。此外,评估人工智能生成的拓扑结构的创新性和实用性需要进行严格的仿真,并与已有的人工设计进行比较。
最终目标是开发出人工智能系统,这些系统不仅能够优化现有设计,还能发现全新的电路架构,这些架构可能比现有方案具有更高的性能、更低的功耗或更小的面积,从而有可能在模拟电路和射频集成电路设计领域取得突破[9]、[42]、[55]。
人工智能在电路优化中的应用
人工智能在模拟和射频设计中的主要应用之一是电路尺寸的自动化——选择晶体管宽度和长度、偏置电流、电阻和电容值以及电感几何形状等元件值,以满足指定的性能目标(例如增益、带宽、噪声、线性度、功耗和效率)[15]。传统上,设计人员基于解析计算、启发式方法或先前的设计来估计初始值,然后通过基于仿真的参数扫描进行迭代微调。该过程可以表述为一个优化问题,其典型特征是高维非凸设计空间、相互冲突的目标以及计算量巨大的函数评估——通常需要 SPICE 级电路仿真或电磁分析 [166]。人工智能技术已被越来越多地用于提高该过程的效率和鲁棒性,同时减少对人类直觉和手动设计的依赖。
电路尺寸设计在射频和毫米波领域尤为关键且极具挑战性。在这些高频段,性能不再仅仅取决于晶体管尺寸,而是主要受布局相关的寄生参数、电磁耦合和阻抗匹配等复杂因素的影响[2]。例如,在毫米波收发器中,低噪声放大器 (LNA) [44]、[65]、功率放大器 (PA) [89]、[153]、压控振荡器 (VCO) [136] 或混频器的元件尺寸设计涉及数十个相互作用的参数的调整。人工智能驱动的尺寸设计旨在实现这一搜索过程的自动化,通常将电路仿真器(例如 SPICE、Spectre)或电磁仿真器(例如 HFSS、Momentum)视为一个封闭的盒子或一个待探索的环境[63]、[165]。
找到满足所有设计规范的一个解决方案本质上是一个优化问题,通常是一个多目标优化问题。目标通常是识别帕累托最优(Pareto-optimal)前沿,它能够捕捉相互竞争的目标之间的最佳权衡[72]、[84]、[119]。在射频集成电路(RFIC)设计中,该前沿可能代表功率放大器(PA)中功率附加效率(PAE)和线性度之间的权衡[89]、[153],或者压控振荡器(VCO)中相位噪声和调谐范围之间的权衡[136]。在某些情况下,通过对各个目标赋予权重来定义标量品质因数(FoM)[26],从而将问题转化为单目标优化问题。
尽管具体目标、约束条件和优化算法差异很大,但这种优化方法构成本综述中许多工作的基础[94]、[100]、[166]。如图展示一个典型的优化流程。这里讨论直接优化方法(无需代理模型)以及代理辅助优化的作用,重点阐述它们在降低计算成本和提高各种基准人工智能技术的采样效率方面的重要性。
在过去的几十年里,模拟电路尺寸调整和优化的自动化取得了显著进展。早期的研究依赖于符号分析技术来推导解析表达式并获得设计洞察[179]、[180]、[181]。在深度学习 (DL) 和强化学习 (RL) 广泛应用之前,模拟电路设计人员经常使用进化算法 (EA) 和边界优化 (BO) 来实现尺寸调整过程的自动化。这些方法仍然适用,并且经常与现代人工智能模型集成。特别是,边界优化常用于构建电路仿真器的代理模型,通常建模为高斯过程。其总体目标是高效地采样一组设计点,以引导优化算法在高维非凸设计空间中进行搜索。
1) 进化算法和贝叶斯优化
2010 年代,进化算法 (EA) 和群体智能 (SI) 技术在模拟电路优化领域的应用显著增长。其中较为突出的例子包括遗传算法 (GA) [6]、[47]、[60]、粒子群优化算法 (PSO) [62]、[65]、[66]、[67] 和差分进化算法 (DE) [68]、[69]。此外,为了应对复杂的非凸设计环境,人们还探索其他元启发式方法,例如萤火虫算法 [73] 和混沌优化方法 [74]。
该领域的大量研究工作致力于提高采样效率,以减少昂贵的仿真次数,特别是射频频率下片上电感器、变压器和匹配网络精确建模所需的全波电磁仿真。Liu [5]提出各种代理建模技术,这些技术既能有效利用样本,又能适应新的电路设计问题[85]、[145]、[166]。他们最近的工作通过将基于贝叶斯神经网络(BNN)的代理模型融入混合优化算法中,扩展了这一研究方向,进一步提高适应性和性能[153]。
这些工作为旨在提高优化速度和精度的持续发展奠定了基础。然而,一个常见的局限性是缺乏对其他电路类型或工艺技术的适应性。代理模型通常采用固定的输入输出映射构建,这使得它们与不同的拓扑结构或器件模型不兼容;在许多情况下,训练后的参数无法很好地泛化到不同的设计场景中。这一挑战促使研究人员探索更灵活的人工智能技术,以提高探索和训练效率。最近的进展——包括使用LLM和基于BNN的代理模型的上下文学习——展现了对新规范的更高适应性以及在新兴技术上更优的性能[11],[153]。
2) 基于强化学习的优化器
强化学习提供一种替代范式,将电路尺寸调整视为一个顺序决策策略[107]。在此框架中,强化学习(RL)智体与电路仿真器(被视为环境)交互,通过基于当前电路状态和观察到的性能反馈(奖励)迭代地调整设计参数(动作)。智能体的目标是学习最大化累积奖励的策略,通常与满足或超越设计规范相一致[91],[94]。
强化学习在电路设计中的两个主要优势在于其学习通用策略的能力以及通过奖励塑造和状态编码灵活地融入领域知识的能力。AutoCkt 是一个深度强化学习(DRL)框架,它引入一种子采样技术来高效地探索大型设计空间[94]。基于这项工作,Wang [26]将图神经网络(GNN)与强化学习集成到 GCN-RL 框架中。通过将电路表示为图,GNN 使强化学习智体能够提取可在不同电路拓扑和工艺节点之间迁移的结构特征。这种能力显著提高设计移植性,并减少了从头开始重新训练的需要。这种迁移学习方法对于提高计算效率和设计复用性越来越重要[51],[221]。
近年来,强化学习在电路设计领域的研究进展主要集中在提高样本效率和鲁棒性上。模型初始化是一个常见的挑战,因为权重初始化不佳会延迟学习,并导致强化学习智能体浪费计算资源去发现传统优化器能够更直接识别的基本模式。为了解决这个问题,Gao提出RoSE[101]及其扩展RoSE-Opt[100],它们将贝叶斯优化(BO)用于高效的初始探索,并将强化学习(RL)用于微调。这种混合方法能够以更少的仿真评估实现更鲁棒的优化。他们的结果表明,结合多种算法的优势能够带来显著的改进。与此同时,Shi提出RobustAnalog[102],它采用多任务强化学习来设计对工艺、电压和温度(PVT)变化具有鲁棒性的电路。此外,好奇心驱动的强化学习(RL)已被提出用于改进稀疏奖励环境下的探索,正如 Yamamoto 和 Takai 在 GNN-Curio [95] 中所示。
多智体强化学习(MARL)是一种新兴的方法,用于解决模拟和射频电路中复杂的系统级设计任务。Bao [97] 和 Zhang [96] 开发 MARL 框架,其中多个智体同时优化不同的子模块(例如锁相环 (PLL) 中的低噪声放大器 (LNA)、功率放大器 (PA) 或压控振荡器 (VCO)),从而通过任务分解降低设计复杂度。MA-Opt [98] 通过部署多个智体并行探索同一个优化问题来扩展这一概念,并通过多样化的策略探索加速收敛。这种设计理念类似于混合专家 (MoE) 架构,其中通用模型由专门的子模型组成,每个子模型负责系统的特定部分。
3) 深度学习代理模型和基于梯度的优化
虽然 BO 通常依赖于高斯过程 (GP) 等代理模型 [121]、[162]、[164],但另一种策略是利用深度学习技术进行代理建模。这种方法不使用概率性高斯过程,而是训练高容量神经网络架构,例如人工神经网络 (ANN)、深度神经网络 (DNN)、卷积神经网络 (CNN) 和图神经网络 (GNN),使其能够快速、确定性地模拟复杂电路仿真器(例如 SPICE)或电磁 (EM) 求解器 [142]、[143]、[220]。其核心思想如上图的工作流程图所示,即预先投入计算资源,利用有限数量的高保真仿真生成的数据来训练一个精确的代理模型。
经过训练后,该深度学习代理模型能够基于输入的设计参数,比原始仿真器更快地预测性能指标(例如增益、带宽、S参数、PAE)[138]、[140]、[170]。这种加速对于设计空间探索至关重要,尤其是在将代理模型与优化算法(例如进化算法[140]、[141]、贝叶斯优化[123]、[153]或强化学习[143])集成时。代理模型识别出的有前景的解决方案随后会使用原始仿真器进行验证,以确认其性能并可能改进代理模型。研究人员根据模型是预训练还是在循环内训练,将此概念应用于离线和在线代理模型[144]、[145]、[150]。
与将原始仿真器视为封闭系统相比,神经网络代理模型的一个重要潜在优势在于其可微性。如果神经网络代理模型能够准确地模拟输入输出关系,则通常可以使用反向传播算法高效地计算其相对于设计参数的梯度。这一特性使得应用高效的基于梯度的优化方法成为可能[129],而这些方法在原始的不可微仿真器环境中可能无法实现。
4) 射频无源器件和组件的逆向设计
与基于给定结构预测性能的正向建模方法不同,人工智能技术能够促进有效的逆向设计方法。这对于射频和微波无源器件的综合尤为重要,因为这些器件的性能取决于其无源元件——匹配网络、滤波器和平衡-不平衡转换器——而这些元件的最佳几何形状通常难以直观理解,也难以通过解析方法推导[15],[16]。逆向设计并非优化预定义几何形状的参数(例如电感器的宽度和间距),而是旨在确定实现特定性能特征(例如目标S参数、阻抗或辐射方向图)所需的必要物理结构或元件参数值[173]。这种方法重新定义了设计挑战,直接从功能需求转向物理实现。
该方法非常适用于电磁性能受物理几何形状强烈影响的元件,包括天线[20]、[157]、滤波器[174]、[175]、匹配网络[29]、耦合器[177]、变压器[172]以及各种其他无源电磁结构[9]。这些元件的传统设计方法通常依赖于标准形状的分析模型,或者需要在有限的参数集上使用电磁仿真器进行耗时的迭代优化。基于人工智能的逆向设计旨在通过学习从性能域到设计域(几何形状或参数)的直接映射,实现大部分迭代过程的自动化。
该领域已开展了大量研究[9]、[28]、[170]、[171]。这些研究利用深度学习技术,主要是卷积神经网络(CNN),并通常与生成模型或优化算法(例如遗传算法(GA)或粒子群优化算法(PSO))相结合,以实现复杂、通常形状任意的高频无源结构的逆向设计,包括与功率放大器(PA)等有源电路的协同设计。其典型的工作流程包括训练一个快速的CNN代理模型,该模型能够根据几何表示(例如,指示金属化的像素图)准确预测电磁性能。然后,将该正向代理模型嵌入到优化框架中。优化器利用代理模型进行快速评估,搜索所有可能的几何形状,以找到预测性能与目标规格高度匹配的结构。 CNN代理模型的高速特性使其能够探索非常大的设计空间,并有可能在合理的时间范围内发现非常规但高性能的几何结构[9]。它们还能有效地利用迁移学习,以最少的额外仿真数据将预训练模型适应新的设计环境(例如,不同的基板或频段)。
生成足够的训练数据通常是一项挑战;特定领域的数据增强策略,例如物理多端口分解,是一种用于最大化从有限的仿真运行中提取信息的数据增强方法[9]。多端口分解过程计算大型电路的S矩阵,并将得到的S参数分解为双端口矩阵。这种方法显著减少了仿真等效数量的双端口电路所需的仿真时间。
其他人工智能方法也已被用于逆向设计任务。可逆神经网络(INN)提供一种能够在单个模型中学习正向和逆向映射的结构[174]。逆向人工神经网络(ANN)[157]和生成对抗网络(GAN)[29]已被用于直接从目标性能规范生成设计参数或几何描述。通用机器学习模型也经过专门训练,用于自动合成诸如平衡-不平衡转换器[176]和耦合器[177]等组件。专为元件综合设计的工具箱,例如 PACOSYT [10],通常封装了机器学习代理模型和优化算法,以便根据所需的电气特性为用户提供元件几何形状。
5) 讨论
尽管取得了显著进展,但挑战依然存在。虽然 BO 和 DL 代理旨在减少仿真调用次数,但它们的有效性可能有所不同。对 PVT 变化的鲁棒性是另一个需要关注的问题,RobustAnalog [102] 等工作正在解决这个问题。将学习的策略或模型推广到新的电路拓扑或技术而无需进行大量重新训练也是一个问题,尽管迁移学习方法显示出前景 [26]。在人工智能框架内有效处理多个相互冲突的目标(例如,增益、功率和噪声)仍然是一个活跃的研究领域,因为强化学习模型并非直接为多目标问题而设计。
许多当前人工智能尺寸计算工具的一个显著局限性在于它们侧重于原理图级优化。对于射频集成电路 (RFIC) 而言,这种“不感知布局”的方法尤其成问题。增益、阻抗匹配和稳定性等性能指标严重依赖于布局寄生参数,这些参数甚至可能完全破坏看似最优的原理图设计[170]。
因此,未来的研究必须着重于将原理图尺寸调整与物理布局生成紧密结合的人工智能框架。这可能涉及学习同时优化晶体管尺寸和位置的强化学习(RL)智体,或者将基于图神经网络(GNN)的快速寄生参数预测器[190]直接集成到优化循环中,以便在设计时提供布局感知反馈。结合不同人工智能范式优势的混合方法,例如将边界优化(BO)与强化学习(RL)[100]、[101]或LLM与边界优化(BO)[11]相结合,可以获得更稳定、更可复现的解决方案。
人工智能在电路布局中的应用
自动化电路布局,包括布局规划、放置和布线,是人工智能展现出巨大潜力的另一个关键领域。模拟电路或射频集成电路中元件的物理排列会影响其性能,这主要是由于寄生效应、信号耦合和散热等因素造成的[4]。高效的排列需要考虑对称性约束、最小化偏移以及管理信号路径完整性以避免串扰等因素[2]。此外,任何人工智能生成的布局都必须符合可制造性要求,确保其通过设计规则检查 (DRC) 且布局与原理图 (LVS) 一致。
传统上,这是一个劳动密集型过程,严重依赖设计人员的专业知识(如表所示),尤其对于对称性、匹配和信号路径完整性对性能影响较大的敏感模拟电路而言更是如此。人工智能驱动的方法旨在自动化解决这一复杂的高维搜索问题。与数字布局布线类似,该问题可以表述为:找到电路模块(宏单元)和单个器件(标准单元或晶体管)的最佳排列方式,以最小化成本函数。该成本函数包括线长、面积以及从布局后寄生参数估计中得出的性能指标[188]、[189]。

1) 用于布局自动化的强化学习
继在电路优化领域成功应用之后,强化学习也被应用于布局任务。Mirhoseini [193] 展示一种基于图神经网络 (GNN) 的强化学习智体,用于数字设计中的宏单元布局,其性能优于人类。将其应用于模拟布局面临诸多挑战,例如复杂的约束和连续变量,但模型正在不断改进。最近的研究探索用于模拟和混合信号布局的强化学习,重点关注对称性、可布线性和性能指标的优化[182]、[183]、[185]。强化学习智体可以学习按顺序放置元件,并根据布局质量或仿真反馈获得奖励。He [184] 探索基于深度强化学习的蒙特卡洛树搜索在电路布线中的应用,尤其适用于模拟电路布线。Wang [195]提出 RTplace,这是一种基于强化学习的宏布局方法,它使用 ResNet 和 Transformer 架构,展示了用于空间优化的先进神经网络。
2) 用于布局自动化的图神经网络
图神经网络 (GNN) 非常适合布局问题,因为电路本身就适合用图表示(元件为节点,连接为边)。GNN 可以学习从电路网表和当前布局状态中提取特征,以指导优化过程。例如,GNN 可以根据布局前的网表和初始布局预测布局后的寄生参数,从而为优化器提供快速反馈[8],[190]。Chen [191]开发了MAGICAL ,一款开源的全自动模拟集成电路布局系统,它集成图神经网络 (GNN) 。Guan [194] 提出一种基于 Transformer 的方法,利用 HyperGCN 和深度 Transformer Q 网络 (DTQN) 进行芯片布局规划,这表明 GNN 架构正朝着更复杂的方向发展。Li [192]专门定制一个用于指导模拟集成电路布局的 GNN 模型,结果表明,与基于卷积神经网络 (CNN) 的方法和标准 GNN 相比,该模型具有更高的精度和知识迁移能力 。Basso [187]探索将关系型 GNN 与强化学习 (RL) 相结合,用于有效的模拟集成电路布局规划 [186],并进一步利用束搜索技术增强 RL 布局规划 。
下图展示 GNN 辅助布局预测器的一般工作流程。在该框架中,负责学习空间和拓扑依赖关系的消息解析器可以从深度神经网络 (DNN) 到更高级的 GNN 以及专为图结构数据定制的基于 Transformer 的架构。这些模型能够捕捉布局组件(例如晶体管、导线和寄生元件)之间错综复杂的关系,并实现电路图中高效的特征传播。集成此类解析器增强了模型推断布局约束、预测设计规则违规或估计寄生效应的能力,所有这些对于现代模拟和混合信号设计流程中的布局优化都至关重要。
3) 讨论
人工智能驱动的模拟电路布局面临的一大挑战是布局、布线和性能之间的紧密耦合。与数字设计中线长是时序的主要代理不同,模拟电路的性能是许多布局相关因素的复杂函数。未来的人工智能方法需要更深入地整合这些因素,例如通过人工智能智体同时考虑原理图参数和物理布局,以及能够根据规范或原理图生成完整、高质量布局的生成模型(例如生成对抗网络、扩散模型)。
MAGICAL 框架 [191] 和 Li & Chan Carusone [104] 开发的开源 AMS 电路优化框架 是朝着更集成化解决方案迈出的重要一步,它们弥合了从规范到 GDSII 之间的差距。随着用于布局的人工智能技术的成熟,它们有望显著减少这一关键设计阶段所需的人工工作量,尤其对于复杂的模拟电路和射频集成电路而言,实现最佳性能高度依赖于物理实现。
用于电路测试和自适应的人工智能
人工智能在集成电路生命周期中的应用已远远超出芯片设计阶段。芯片设计后的活动,包括性能校准、故障诊断和自愈机制的实现,也越来越多地受益于人工智能方法。这些应用对于提高制造良率、确保运行可靠性以及降低复杂模拟和射频集成电路的长期维护成本至关重要。
现代模拟/射频片上系统 (SoC) 在首次上电时很少能达到数据手册的限制:工艺偏差、电源噪声和温度漂移会导致增益/失调偏移、时序偏差或彻底的功能故障。人工智能校准用片上学习引擎取代耗时的微调回路和基于规则的查找表,这些引擎可以 (i) 感知偏差,(ii) 推断最佳校正向量,以及 (iii) 持续或按需应用微调。
1) 基于人工智能的电路校准与调优
由于固有的工艺偏差以及工作PVT(工艺、电压、温度)的波动,制造的集成电路会偏离其标称设计规格。元器件不匹配会进一步加剧这种性能差异。电路校准旨在通过在制造后调整片上可配置参数来补偿这些偏差。人工智能技术,特别是深度学习和强化学习,能够有效地自动化这一调优过程。
2) 用于校准的强化学习
强化学习智体可以通过与物理芯片或数字孪生体交互来学习最优校准策略。这些智体可以调整可调元件,例如偏置电流、电容组或移相器,从而将电路性能指标引导至所需的运行范围[13]。例如,强化学习已被应用于生成用于集成电路设计验证的最优激励,并且可以扩展到特性分析和校准任务[27],[205]。利用强化学习(RL)原理已证实可用于自校正系统(例如模数转换器ADC)的片上学习[206]。基于硅片前仿真数据(包含详细的变异模型)或初始硅片表征数据训练的监督式机器学习模型,能够预测全新未校准芯片的最佳校准设置,从而确保其稳健的性能[208]。这些人工智能驱动的校准方法可以显著缩短生产测试时间。
3) 机器学习在故障诊断和缺陷定位中的应用
机器学习模型,包括支持向量机(SVM)、决策树和各种神经网络架构(例如人工神经网络(ANN)、卷积神经网络(CNN)),可以利用包含故障电路和无故障电路实例测试响应的数据集进行训练。这些模型能够学习对不同类型的故障进行分类,例如固定型故障、开路或短路以及细微的参数偏差,或者识别异常的电气行为。例如,一维卷积神经网络(1-D CNN)已被用于模拟电路故障诊断中的数据驱动特征提取[198]。其他方法包括使用分数傅里叶变换(FRFT)等技术提取统计特性特征[197],以及基于支持向量数据描述(SVDD)并结合Dempster-Shafer证据理论的模块化模拟电路方法[199]。动态贝叶斯网络也被用于电路故障定位[204]。最近的研究进展包括使用相关向量机[202]和神经网络架构(例如采用Boruta特征选择的LightGBM)的特征方法,用于诊断模拟电路中的软故障[200][201]。
4) 基于人工智能的自愈电路研究进展
自愈或自修复电路的概念,即系统能够自主检测、诊断并从内部故障或显著的性能下降中恢复,代表人工智能在硬件系统中的前沿应用。尽管该领域仍在发展完善中,但人工智能为这类自适应系统提供了所需的核心智能。自愈电路架构需要集成几个关键组件:
• 用于持续监测关键性能参数和健康指标的片上传感器。
• 基于人工智能的故障检测和诊断单元,用于快速识别故障的发生及其性质[198],[199]。
• 人工智能决策引擎,可以是强化学习智能体或复杂的基于规则的系统,用于确定最合适的纠正措施[206]。
• 可动态调整的可重构硬件元件或可重新路由的信号路径,以补偿故障或绕过电路的受损部分。
包含稳健校准和监督式机器学习的框架是射频集成电路 (RFIC) 中数字辅助自愈功能的基础要素 [208]。此类框架总结于下图。尽管在各种故障类型上实现完全自主的自愈仍然是一个长期目标,但人工智能 (AI) 技术正在推动构建具有增强的弹性和自适应能力的电路方面取得显著进展,从而有助于提高整体系统可靠性和延长使用寿命 [206]。
5) 讨论
将人工智能集成到集成电路的后硅生命周期中代表着一次重大的范式转变。人工智能驱动的校准已经彻底改变了性能调优 [13]、[27]、[205]、[206]、[208],机器学习模型被用于故障诊断和缺陷定位 [197]、[198]、[199]、[200]、[201]、[202]、[204]。尽管完全自主的自愈电路仍是一个长期目标,但人工智能为系统提供了核心智能,使其能够检测、诊断并启动性能下降或故障的恢复过程[206]。
未来的研究必须着重于构建完整的自愈流程,并重点关注数据效率和隐私保护。此外,集成片上人工智能加速器可以实现更快、更精准、更节能的自纠正能力。随着芯片设计复杂性的增加,尤其是在多芯片封装的情况下,人工智能对于开发跨异构组件的系统级诊断和自愈策略至关重要。这些进步对于提高制造良率、确保运行可靠性以及显著降低未来集成电路系统的维护成本至关重要。
为了将所调研的人工智能方法置于实际系统框架中进行阐述,下图展示一个典型的射频/毫米波收发器架构,图中标注使用人工智能技术进行综合或优化的电路模块。
每个有源模块(例如功率放大器 (PA)、低噪声放大器 (LNA)、锁相环 (PLL)、混频器、可变增益放大器 (VGA)、模数转换器 (ADC)、数模转换器 (DAC)、低压差线性稳压器 (LDO) 和电流传输器 (CC))以及每个无源模块(例如天线、滤波器、电感器、匹配网络 (MN) 和定向耦合器 (DC))都在下表中链接到相关文献,这些文献中已成功将人工智能应用于相应的设计任务。
上图作为一个统一的视觉总结,突出人工智能在模块级模拟/射频设计流程中的渗透程度。它还强调端到端人工智能驱动的收发器设计的巨大潜力,其中各个模块级的创新可以组合成完全综合的系统架构。
这种系统级视角不仅有助于识别各模块中人工智能技术的成熟度,还能发现关键的集成挑战。例如,虽然人工智能驱动的优化在低噪声放大器(LNA)和功率放大器(PA)设计中展现出良好的前景,但具有跨领域约束(例如线性度、噪声系数、功耗)的模块的自动化协同设计仍有待深入探索。解决这些集成层面的问题对于可扩展的整体设计方法至关重要。
人工智能方法在模拟和射频集成电路设计领域的进展很大程度上取决于高质量数据集、标准化基准测试和易于使用的软件工具的可用性。这些要素对于训练模型、比较不同算法以及支持可复现的研究至关重要。
数据收集方法
将人工智能应用于模拟和混合信号电路设计面临的一项根本挑战在于数据采集,因为生成高质量的基于仿真的数据集通常需要大量的计算资源[26],[139]。以往,此类数据集都是针对特定问题创建的,很少公开共享,这限制了可复现性并减缓了整个社区的进展。然而,最近向开源数据集的转变旨在克服这一限制。值得注意的贡献包括OCB,它提供了各种运算放大器设计[54],以及专注于特定领域的数据集,例如通过深度学习技术进行天线设计[20]。最近推出的CIRCUIT基准测试用于评估LLM在模拟设计任务中的推理能力[229]。然而,由于仿真成本高昂,生成具有广泛拓扑和技术覆盖范围的数据集仍然受到限制。AICircuit [230] 通过发布可重用的电路模板(例如低噪声放大器 (LNA) 和功率放大器 (PA) 的模板)部分解决了这个问题,这些模板旨在支持下游设计任务。
与此同时,研究人员针对具体案例,将他们的 AI 模型与先前文献或专家设计的电路进行基准测试 [26]、[94]。虽然一些研究工作已经针对特定算法类别引入了标准化的评估协议,例如多目标进化算法 (MOEA) 的测试套件 [72] 或模拟/射频回归任务的监督学习基准测试 [231],但目前还没有普遍采用的模拟 AI 设计基准测试标准。为了解决这个问题,下图对 11 种具有代表性的基于 AI 的电路设计方法进行了比较分析,这些方法均利用了代工厂级工具 Cadence [232]。
该二进制热图从七个关键能力维度提供了结构化的概览:拓扑选择、参数推断、性能预测、布局感知、射频/毫米波适用性以及公共数据集和代码库的可用性。所选数据库包括 GCN-RL [26]、基于领域知识的数据集 [87]、BO-SPGP [7]、ESSAB [142]、AICircuit [230]、ALIGN [189]、LayoutCopilot [214]、AutoCKT [94]、L2DC [107]、CAN-RL [114] 和 FALCON [232]。
每个单元格表示该方法是否包含特定功能(✓ = 1,✗ = 0)。在所调查的方法中,FALCON 框架和数据集因全面支持所有七个维度而脱颖而出,体现了其全面性和实用性。相比之下,大多数其他方法仍然具有很强的专业性;例如,BO-SPGP 和 ESSAB 侧重于尺寸和性能估算,但缺乏布局集成和开源分发。诸如 ALIGN 和 CAN-RL 等布局感知工具集成了与代工厂兼容的设计流程,但在公开可访问性方面存在差异。这种比较凸显了该领域更广泛的挑战,特别是开放数据/代码资源的匮乏以及许多先进方法对拓扑生成和性能预测支持的不足。
工具和框架
人工智能在电路设计中的应用得到了各种工具和框架的支持。诸如 TensorFlow [233] 和 PyTorch [234] 等通用人工智能/机器学习库是大多数开发的核心。电路仿真器,例如 SPICE 类程序(如 HSPICE、Spectre、Ngspice)和电磁仿真器(如 HFSS、ADS Momentum),通常用于数据生成和设计验证。
将人工智能算法与电路仿真器相结合的优化框架:基于强化学习的AMS电路优化框架[104]、AutoCkt[94]和GCN-RL[26]在近期发表的文献中被广泛引用,并为后续开发提供了基准。诸如MAGICAL之类的版图自动化系统利用人工智能技术生成网表到GDSII的转换[191]。诸如PACOSYT[10]和SIDe-O[178]之类的工具专注于使用机器学习模型合成无源器件。诸如BAG[139]之类的生成式设计平台正在与其他专用综合工具[59]、[146]、[220]一起,通过人工智能/机器学习进行增强。
讨论
开源数据集和基准测试的可用性对于人工智能在模拟/射频设计领域的发展至关重要。尽管目前已有一些有价值的贡献,但该领域仍然需要更全面、更广泛采用的基准测试套件,以便对新兴的人工智能技术进行一致的比较。至于人工智能驱动的工具,学术文献中介绍的许多工具通常都针对解决特定问题或优化特定电路拓扑结构和器件类型而定制。这种专业化使得难以确定广泛的引用趋势,也难以确定其在各种模拟电路设计挑战中的直接适用性。
随着人工智能模型在电路设计中被应用于日益复杂的任务,其向复杂且不可解释的“封闭式”方法论的演进带来了一个重大问题。可解释人工智能(XAI)应运而生,成为关键领域,它提供了必要的工具来提升这些高级模型的可解释性和可调性,使其从晦涩难懂的模型转变为透明的设计伙伴。
多种XAI技术已被应用于电路相关应用。其中一种广泛采用的方法是SHAP,它提供了一个博弈论框架,可以根据输入特征对特定预测的贡献为其分配重要性评分[39]。LIME是另一种重要的技术,它使用更简单的代理模型(例如线性回归器)来近似复杂模型在特定预测附近的局部行为[40]。对于常用于布局分析和逆向设计等任务的卷积神经网络(CNN),Grad-CAM是一种强大的XAI方法,可以生成特定类别的定位图[41]。 Grad-CAM 利用流入最终卷积层的目标概念的梯度生成热图,从而突出显示输入图像中最具影响力的区域。
基于 XAI 的电路分析
目前,这些 XAI 方法在电路设计中的主要应用是验证用于分析和验证的 AI 模型的决策过程。最近的一个例子是半导体故障检测领域,其中 AI 被用于识别晶圆图上的微观缺陷 [209]。通过应用 Grad-CAM 和 LIME,研究人员能够在晶圆图像上生成热图,直观地确认 AI 在进行分类时正确地聚焦于缺陷的物理区域。另一个应用侧重于对微波网络故障原因进行分类 [210],该应用也使用了 Grad-CAM。这种可用性是迈向行业应用的重要一步,因为它允许领域专家审核 AI 的推理过程,建立对系统的信心,并确保模型学习到的是真实的故障特征,而不是来自数据中无法解释的权重。
讨论
将可解释人工智能 (XAI) 集成到集成电路 (IC) 设计自动化中,标志着从单纯追求结果到理解结果背后的原因的关键转变。这种转变并非仅仅是学术探讨,而是日益受到信任、验证和法规遵从性需求的驱动,尤其是在汽车和医疗电子等安全关键领域。正如 Kelly [235] 所强调的,诸如欧盟人工智能法案 [236] 等新兴法规对高风险人工智能系统提出了更为严格的要求,强制要求具备透明度、问责制和人工监督等属性。XAI 为满足这些要求提供了一条直接的技术途径。例如,解释强化学习 (RL) 代理为何选择特定的电路拓扑结构,或者深度学习 (DL) 模型为何标记出潜在故障,可以帮助设计人员和审核人员验证系统的决策是否符合合理的工程原理和安全标准。
然而,XAI 的应用并非一帆风顺。Panigutti [237] 的一项分析表明,XAI 的应用面临着诸多挑战。欧盟人工智能法案本身并未明确规定使用特定的可解释人工智能(XAI)工具,并强调可以通过全面的文档和用户培训来实现透明度。这部分是由于当前 XAI 方法论的局限性所致。许多技术虽然前景广阔,但其产生的解释可能脆弱、不一致,甚至容易被操纵。一种解释可能看似合理,但却无法捕捉模型的真实推理过程,这种现象可能导致一种虚假的安全感或“自动化偏见”,即人类设计者过度信任一个存在缺陷的、由人工智能生成的解决方案,仅仅因为它附带了一个看似合理但却具有误导性的解释 [237]。
此外,这些挑战在射频集成电路(RFIC)设计领域尤为重要。设计参数的连续性、物理效应的复杂非线性相关性以及高维权衡意味着,仅使用 SHAP 或 LIME 近似方法计算的简单特征重要性评分可能不足以应对挑战。目标是发展领域感知型可解释人工智能(XAI),使其能够以电路理论的语言解释电路设计过程,并将模型的关注点与阻抗匹配、线性度或噪声系数等概念联系起来。因此,未来的研究必须着重开发与电路设计物理约束直接相关的新技术。这些进展对于将人工智能从“封闭式”优化引擎转变为真正协作且值得信赖的设计伙伴至关重要。
近年来,LLM和其他生成式人工智能范式的快速发展,推动了其在EDA(工程设计自动化)领域潜力的探索[14]。LLM的特点在于其能够理解、生成和推理人类语言和结构化代码,为电路设计人员提供了一种全新的界面和强大的辅助技术。早期应用主要集中在知识管理和设计辅助方面,但该领域正迅速朝着更加集成和自主的系统发展。如图展示LLM模型与设计人员之间的一般对话。
1)基于LLM的智体和自动化工作流程
一个重要的新方向是开发基于LLM的人工智能智体,这些智体可以与EDA工具交互,从而自动化复杂的设计任务。这些智体并非仅仅提供信息,而是积极参与到设计流程中。例如,Liu提出一种用于模拟电路尺寸优化的AI智体,该智体将LLM与仿真工具集成在一起,成功地优化多个电路以满足性能目标[216]。其他基于智体的系统优化了设计流程的不同环节,例如 AnalogTester,它通过从学术论文中提取信息来自动生成测试平台[217];又如 LIMCA,它使用 LLM 来自动探索内存计算架构的设计空间[57]。
更复杂的框架采用多个专用智体来协作管理整个设计过程。Atelier 引入一种基于思维图架构的多智体系统,其中每个智体负责处理特定任务,例如拓扑选择或参数调整,并由精心整理的知识库指导,从而避免大量的微调[12]。类似地,MenTeR 提出一种用于端到端射频/模拟网表设计的全自动多智体工作流程,设想未来“射频/模拟副驾驶”将与人类设计师协同工作[58]。ChipMnd 框架也利用专用智体进行数字和模拟设计,旨在提高效率并加速原型制作[218]。这些多智体系统代表着向完全自主设计工作流程迈出的重要一步。
2) 用于综合和探索的生成式人工智能
除了工作流程自动化之外,生成式模型还被用于拓扑综合等创造性设计任务。AUTOCIRCUIT-RL 是一个新框架,它使用 LLM,并结合强化学习进一步改进,从高级约束自动生成有效且高效的电路拓扑结构 [53]。这种方法超越了优化固定拓扑结构,转而探索新的电路结构。
其他生成式技术,例如 de Azevedo [158] 探索的去噪扩散概率模型 (DDPM),正被应用于逆向尺寸优化问题。这些模型可以从随机噪声中生成有前景的尺寸优化方案,从而显著减少优化所需的仿真次数。这凸显一个更广泛的趋势,即生成式人工智能(包括 VAE 和 GAN)正被用于更有效地探索设计空间 [14]。
3) 交互设计与知识管理
LLM 作为对话伙伴和知识管理器的最初应用仍然非常重要。它们可以快速搜索和整合海量技术文档库中的信息,帮助设计人员找到解决方案并保持信息更新 [212]、[213]。目前,这项功能正与优化工具集成。例如,ADO-LLM 框架将 LLM 与贝叶斯优化相结合,其中 LLM 提供上下文相关的指导,使优化过程更加智能高效 [11]。LLM 也被用于更具体的任务,例如生成 Verilog 代码 [211] 或通过“辅助驾驶”系统辅助布局 [214]、[215]。
4) 讨论
目前的演示越来越多地表明,LLM 已成为设计流程中的积极参与者,而不仅仅是被动的工具。然而,挑战依然存在。主要担忧在于LLM可能生成看似合理但技术上不正确的信息(“幻觉”)。诸如Atelier之类的框架通过在精心整理的高质量知识库中训练LLM来解决这个问题[12]。
该领域的发展轨迹正从单一用途的LLM应用转向能够管理端到端设计任务的集成式多智体“副驾驶”[58],[218]。随着LLM技术的快速发展,其在模拟电路和射频集成电路(RFIC)设计中的作用预计将更加深入,从辅助功能转向协作,甚至在创意和分析设计阶段实现自主参与。
尽管人工智能在模拟电路和射频集成电路设计的各个阶段自动化方面取得了显著进展并展现出良好的前景,但仍存在一些挑战。未来的研究方向将着重于克服这些局限性,并探索人工智能辅助电路开发的新领域。
- 可扩展且可解释的 AI 自适应
- 更智能的布局感知设计
- 数据集的可用性和可复现性
- 迈向全面设计自动化
- 高效且协作的 AI
长期目标是开发能够更自主地管理整个电路设计流程的人工智能系统,从理解初始规范到交付经过验证的设计。人工智能通常应用于设计流程的特定环节,针对特定设计阶段的各种方法,将这些方法集成到一个无缝、全自动的流水线中是一项持续进行的工作[88]。模拟电路设计也经常需要平衡多个性能目标(例如增益、功耗和噪声水平),这些目标往往相互冲突。
逆向设计[9]为关键的射频和微波构建模块提供一条从规范到物理实现的潜在更直接的途径,这与提高电路设计流程自动化程度的目标相一致。如图所示,其设计一个通用设计流程,该流程基于各种出版物[9]、[11]、[88]中提到的未来工作。
未来的工作可以涉及分层人工智能系统,其中不同的人工智能智体相互协作,每个智体专注于不同的任务。例如,LLM中涌现出的新兴能力,使其能够处理和理解来自各种格式的信息,包括文本规范、电路图(以图形或图像形式呈现)、仿真波形和布局图像,从而有助于更全面地理解设计背景。这种多模态LLM可以改善设计人员与AI工具之间的交互,并有助于更有效地连接不同的设计阶段。
AtomGit 是由开放原子开源基金会联合 CSDN 等生态伙伴共同推出的新一代开源与人工智能协作平台。平台坚持“开放、中立、公益”的理念,把代码托管、模型共享、数据集托管、智能体开发体验和算力服务整合在一起,为开发者提供从开发、训练到部署的一站式体验。
更多推荐

所有评论(0)