找回密码
 立即注册
搜索
热搜: 活动 交友 discuz
查看: 200|回复: 0

关于EDA与GNN的周全综述:理论与利用

[复制链接]

6

主题

14

回帖

40

积分

新手上路

积分
40
发表于 2023-1-8 10:25:39 | 显示全部楼层 |阅读模式
来历:知乎
本篇文章翻译自 A Comprehensive Survey on Electronic Design Automation and Graph Neural Networks: Theory and Applications

A Comprehensive Survey on Electronic Design Automation and Graph Neural Networks: Theory and Applications | ACM Transactions on Design Automation of Electronic Systems
如果侵权了,我就删除
关于EDA与GNN的周全综述:理论与利用

摘要:

在摩尔定律的鞭策下,芯片设想复杂度在稳步上升。电子设想自动化(EDA)可以应对超大范围集成进程的应战,确保可扩大性、牢靠性和合适的托付时候。但是,EDA方式对时候和资本具有较高需求,而且这些方式凡是不能保证最优解。 为了减缓这些题目,机械进修技术已经在被归入设想流程的很多阶段,比如结构和布线。很多处理计划采用欧式怀抱的数据和响应的机械进修技术,可是没有斟酌到大大都EDA的工具自然地以graph的形式存在。今朝大火的GNNs可以间接用图结构描写电路、中心RTL、网表,这有机遇能处理EDA中的题目。这篇文章是对现有的在EDA芯片设想流程中利用GNN的工作的深入综述。依照这些工作对应的设想流程,我们逐一描写了其图结构、使命、模子范例。我们分析了这些工作的现实影响和产出。最初我们对GNN利用在EDA设想流程中面临的应战停止了总结。
1. 引言:

随着时候的推移,芯片设想流程整合了多种软件工具来综合、模拟、测试和高效地考证分歧的电子设想。这些工具总称为电子设想自动化(EDA)。这些工具使芯片设想流程 (如图1所示) 自动化。虽然如此,这个流程是串行的,需要很多时候。凡是,我们必须对设想停止考证和测试以确保它的正确性、牢靠性和闭包。可是,只要在物理认证、签发、测试阶段,该设想在功耗、性能、面积(PPA)的质量才能被丈量出来。以后凡是会需要屡次中心步调的改正点窜,这会致使设想流程的屡次迭代。是以,假如能在设想的早期阶段对PPA停止预算, 将会削减迭代次数,增加设想牢靠性,在设想流程上能更深入细致,终极提升成果质量(QoR)。
在曩昔的几年里,受摩尔定律的鞭策,设想复杂度已经急剧增加。芯片容量每两年左右就会翻倍。这就转化为一日千里的、针对加倍多样化芯片的设想和考证的工作量。EDA工具旨在应对这些新的应战,并为超大范围集成 (VLSI)供给自动化处理计划。EDA 工具凡是面临 NP 完全题目,而机械进修 (ML) 方式可以对这类题目更好更快地求解。是以,各类机械进修方式被集成到了EDA中,特别是在逻辑综合、结构、布线、测试、考证等阶段。文献【23】总结了四个首要的利用偏向。

  • 用ML方式猜测传统计划的最优设置
  • ML经过进修一些模子及其性能的特征,无需运转高贵的综合步调,即可猜测新设想的性能。
  • ML可以摸索设想空间,优化PPA。
  • 用RL摸索设想空间,进修战略,履行一些变更以获得最好设想,用野生智能帮助设想流程展望未来。
在 EDA 中利用 ML 技术的一个促进身分是 EDA 工具在设想进程中天生了大量数据。这些数据需要经过预处置和标志后,才可以用ML方式。现有的处理计划中将这些数据作为欧式数据处置,比如将数据暗示在2维欧氏空间,然后用CNNs之类的ML方式。但是,现在的图神经收集对具有graph结构数据的处置获得了明显进步。虽然GNN早在2005年就出现了,但它们比来连系了深度进修操纵(如卷积和池化)后在诸如此类的范畴引发了极大关注,比如分析图、保举系统、交通猜测等。 EDA中的电路、中心RLT、网表、结构布图等最自然的暗示方式就是graph。是以,在曩昔两年里,一些研讨职员意想到这一机遇并引入 GNN来解EDA 题目。
这篇综述周全回首了一些比来在 EDA 流程的分歧阶段利用 GNN 的研讨。首先别离先容了EDA和GNN范畴布景和一系列开创性相关工作。第2章回首了EDA流程和布景概念;第3章具体先容了分歧范例的GNN。第4章从设想角度论述了GNN的pipeline。第5章会商了若何将pipeline利用到EDA使命上的一些研讨。第6章总结了这些工作的首要产出。在第7章对一些应战和未来偏向停止总结。

关于EDA与GNN的周全综述:理论与利用-1.jpg
2. 布景和界说

这部分我们将简要回首EDA流程,Graph,GNN相关的布景概念。
2.1 电子设想自动化(EDA)

EDA工具和设想方式的进步,以及在设想中利用分歧条理的笼统进步了硬件设想生产率。图 1 描画了现代芯片设想的各个阶段。该流程从为特定的利用建模的芯片说明起头,架构分析和设想原型将设想暗示为交互模块的调集,例如处置器、存储器和总线。在功用逻辑设想阶段,用一些硬件描写说话 (HDLs,如Verilog) 将这些模块的行为描写映照到RTL块。现在,从系统说明到RTL的转换可以经过度歧方式完成。比如,采用高条理综合(HLS,自动地将C/C++/SystemC说明转换到HDL),或采用硬件设想框架(如MetaRTL【51】,Chisel【5】)。
逻辑综合将HDL中的RTL块映照到从特定技术库当挑选的门的组合,同时针对分歧的方针优化设想。凡是,这类优化涉实时序收敛/面积/能耗间的权衡。
在物理综合阶段首要履行4个步调:布图计划、结构、时钟插入、布线。

  • 将芯片、宏和端口这些首要 RTL 块分派到版面的各地区。
  • 将天生的逻辑网表的门放置在芯片的特定位置
  • 插入时钟
  • 增加用于时钟信号和毗连门的电线     这些步调的履行方针是在斟酌到设想法则的条件下,到达更好的面积操纵、时序性能、堵塞、可布线性。
由于设想中的毛病会花费时候和资本,是以考证是一个根基步调,并在功用设想和物理设想以后履行。考证并签发以后,起头进入制造流程:制造,封装,终极测试。设想上的功用毛病和约束违规会致使设想流程的迭代,这个进程会花费数天或数周。数字设想流程采用分而治之的战略,在各个阶段都需要的自力工作的工具和团队。是以,设想流程的迭代是高贵的。为了优化EDA流程,DARPA IDEA计划推出了OpenROAD(开放无障碍设想的根本和实现)和ALIGN(模拟结构,从网表自动天生)项目。OpenROAD和ALIGN是免费、全自立、开源的 别离用于数字和模拟流程版式天生的工具链。
虽然从RTL到图形数据系统(GDSII)的流程是高度自动化的,它仍然存在一些弱点: 1)依靠硬件设想者的专业经历来挑选EDA工具的得当设置。 2)RTL的设想空间摸索、逻辑综合、物理综合是手动的,是以受限且需要时候。 3)更正设想需要重新起头这些流程。 4)没有对成果停止早期分析和猜测。 为了应对这些应战,EDA社区和项目,比如OpenROAD和ALIGN,正在将ML技术整合到设想流程中。比如,为时序驱动逻辑综合优化设想空间摸索。此外,OpenROAD正在开辟一个数据收集和存储设备,METRICS2.0,以启用更多的ML技术来猜测工具和流程的成果。另一方面,ALIGN已经包括了一些ML方式来建立到达专家期望的高质量结构。
就我们所领会,OpenROAD和ALIGN都还没有起头摸索GNN的利用。但是,我们可以用这两个开源框架来收集特征图,这些图能更好的暗示EDA工具。汇集这些数据能促进GNN在EDA中的摸索。由于斟酌了特征拓扑信息,GNN已经展现出了相比其他ML模子的优越性。

关于EDA与GNN的周全综述:理论与利用-2.jpg
2.2 图(Graph)

界说:图是暗示工具间相互感化关系的一种数据结构。数学上可以暗示为 G=(V,E),V是节点的调集,E是边的调集。边是节点间的毗连。e_{uv}暗示节点u和v之间的边,节点v的邻域是N(v)= \{u|(u,v)\in E\}.假如节点v属于它自己的邻域,那这是个封锁邻域,否则是个开放邻域。Graph可以暗示为一系列的节点和边。更方便的方式是用邻接矩阵A来暗示,假如u,v之间有边,则A _{uv}=1,否则A _{uv}=0。一个节点的度是指其邻节点的数目,等因而其邻接矩阵A的对应行之和。
图的范例: 如图2所示,图可以分为分歧的种别。假如边是有偏向的,称为有向图。假如边没有偏向,那末是无向图。假如边代表一个损失或实值,称为加权图,其邻接矩阵A中的元素也是有实值的。多重图可以分化为多个层,层间的关系以及节点的层归属用别的的层间边来暗示。图可所以同构的或异构的。同构图中一切节点和边是同一范例的。异构图中的节点有分歧范例,属性也可以分歧。在静态图中,特征和拓扑信息随时候变化。稳定的称为静态图。这些图的品种是相互正交的,也就是说,可以连系起来。
分歧的GNN架构支持分歧品种的输入图,比如同构图、静态图、有向图。但是,现实中会碰到更复杂范例的图。当前的研讨方针是将GNN拓展至更多范例的图,比如超图,超图中有超边,可以毗连不止2个节点;二分图,它的节点组成两个不订交且自力的调集。
2.3 浅层嵌入方式

传统处置图结构数据的方式是采用浅层embedding方式,这些方式旨在将节点信息分化为低维embedding向量,这些向量中包括节点在图中的位置信息,以及邻域结构信息【17】。最著名的一种图嵌入技术是随机游走 (Random Walk)【36】:在图中给定一个肇端点,挑选一个随机邻节点。然后再挑选该邻节点的一个邻人。递归地反复这个步调,由此发生了一个包括一系列点的随机序列,称为random walk。DeepWalk和Node2vec是著名的基于随机游走的图嵌入技术。虽然这些方式已经获得了冲破性的成功,但还存在一些范围:

  • 将图信息映照到嵌入空间的部分称为编码器,这些方式中的编码器对每一个节点都优化一个唯一的embedding向量。面临大图或超大图,这类方式的计较劲很是大。
  • 这些方式属于直推式进修,即它们只能对练习过的节点天生 embedding 向量。这是个严重弱点,由于模子不能泛化到没见过的节点。
  • 它们没有斟酌到在编码进程中具有重要信息的节点特征。
其他的一些神经收集,比如CNN,不能间接对原始的图数据停止操纵,除非先将图结构映照到牢固尺寸的向量形状。这首要有两个缘由。1,图没有特定的部分性或滑动窗口的概念用来履行卷积操纵。2,图没有牢固的节点顺序。感化于图的操纵应当是对节点顺序或排列稳定的。
2.4 图神经收集 GNN

为了克服浅层嵌入和NN方式的范围性,【14】引入了一种新的NN,GNN。
GNN是间接在图上操纵的NN框架。在代数中,一个排列是置换元素顺序的运算。由于图结构数据不假定以任何特定顺序排列,而依靠于节点顺序的神经收集会对两个同构图给出分歧的成果。是以,GNN由置换稳定和置换等变函数组成,是以它可以用于节点粒度的运算。终极,GNN可以在不丧失拓扑和特征信息的情况下处置图结构数据【14】。最初的GNN被暗示为一种经过时代反向传布练习的RNN【26】。
有了输入图,GNN就要对每个节点进修一个嵌入向量,h_u, \forall u \in V,该向量编码了每个节点的邻域信息【60】。由于graph中节点嵌入或信息是经过邻人停止传递的,GNN采用一种消息传递战略。在这类战略中,节点间以向量形式传递信息,用一个非线性可微分函数来更新一切节点的嵌入向量h_u。由于每个节点都从它的邻域聚合信息,是以图的结构会影响到消息传递的更新。
GNN架构继续了这类消息传递战略,下一章节会论述这一点。
3. GNN的分类

GNN可以分为四品种型【60】。我们在这一章中回首并描写它们的焦点思惟。
3.1 循环图神经收集(Recurrent Graph Neural Networks)

RecGNN 假定节点与其邻域不竭地交换信息,直到到达稳定点。RecGNN界说节点聚合函数以下:
h_u^t = \sum_{v\in N(u)}\phi(x_u,x^e_{(u,v)},x_v,h_v^{(t-1)}), \tag{1}  
其中\phi 是一个非线性可微分递归函数,h_u^0随机初始化。分歧于其他范例的GNN,RecGNN斟酌时候步。是以,为了获得节点u在当前时候步t`的隐向量h_u^t,需要聚合:a).节点u自己的特征向量x_u、b). 该节点邻节点v的特征向量x_v,u和v之间的边的特征向量x^e_{(u,v)}、 c). 邻节点v在前一时候步t-1的隐特征向量h_v^{(t-1)}。 递归这个操纵直到满足收敛标准。留意N(u)是开放邻域,是以,在计较各个时候步的h_u$$的时辰,RecGNN不斟酌节点自己的嵌入向量。
在【50】中提出的RecGNN结构是一个RNN,其中神经元之间的毗连被分为内部毗连和内部毗连。前者指收集神经元的毗连,后者指graph中边的毗连。
3.2 卷积图神经收集(Convolutional Graph Neural Networks)

ConvGNN经过堆叠多个图卷积层来进修嵌入向量。分歧于RecGNN中的权重同享,ConvGNN每层采用分歧的权重。ConvGNN是将CNN拓展到图数据,可分为谱方式和空域方式【60】。
谱方式:假定一个有向图。由于graph范畴没有凡是的坐标系概念,所以没有平移稳定。图上的卷积运算鉴戒了信号处置中的卷积理论,其中说到傅立叶变更使卷积运算对角化,即两个信号在时域中做卷积等价于频域中信号相乘。是以,谱方式基于laplacian特征基,该特征基由图结构决议。
空域方式:该方式基于图的空域结构。即在空域邻人上计较。CNNs是这类方式的一个例子。将图像中的像素点视为图的节点,那末CNN就计较每个通道中某其中心节点及其邻节点像素值的加权均匀。留意,分歧于图像的是,图没有牢固的尺寸,也没有法则化的邻人。
在【27】中,提出了一个在图结构上停止卷积操纵的谱方式,称为GCN。该方式的根基道理就是经过聚合中心节点及其邻节点的特征来提取节点的高条理embedding。用数学公式暗示为:
h_u^{l+1} = \phi([W^{(l)}\sum_{v\in N(u)} \frac{1}{c_{(u,v)}}h_v^{(l)}+B^{(l)}h_u^{(l)}]) \tag{2}  
其中c_{(u,v)}=\sqrt{|N(u)|}\sqrt{|N(v)|}是边e_{u,v}的标准化常数,|N(u)|和|N(v)|别离是节点u和节点v的度;W^{(l)}和B^{(l)}是可练习的矩阵参数,别离用于进修节点邻人及其本身的特征;l\in\{1,...,L\},L是层数,phi是非线性激活函数。在公式(2)中,N(u) 是开放邻域,但实在GCN也可以用于闭邻域,此时公式中的矩阵B就不需要了。
虽然GCN在天生大图的低维嵌入方面很是强大,但它是直推式的。也就是说,在练习阶段必必要见过一切能够范例的节点。为了减缓这个题目,GraphSAGE【18】这篇工作提出了一种归纳式进修框架,可以泛化到没见过的节点。它采用了类似公式 (2)中的更新法则。它并不进修节点的embedding自己,而是进修公式(3)中的聚合函数,第l层节点的embedding是经过把当前节点和邻节点的embedding毗连获得的, ||是特征的毗连操纵。
h_u^{l+1} = \phi([W^{(l)}\sum_{v\in N(u)} \frac{h_v^{(l)}}{|N(u)|}||B^{(l)}h_u^{(l)}]) \tag{3}  
GraphSAGE被归类为GCN,由于它利用了卷积均匀聚合。GraphSAGE是把本来的embedding和邻域的embedding毗连起来,而GCN是把它们聚合起来。GraphSAGE利用牢固尺寸的邻人节点,这在揣度时会限制收集的性能。为领会决这个题目,图留意力模子GAT【57】被引入进来,GAT经过计较一切邻节点的留意力来获得每个节点的embedding【34】。数学上,这个节点的embedding可以被暗示为:
h_u^{l+1} = \phi([\sum_{v\in N(u)} \alpha^{(l)}_{(u,v)}z^{(l)}_v]) \tag{4}  
其中z^{(l)}_v=W^{(l)}h_v,\alpha^{(l)}_{(u,v)}是标准化的u和v留意力分数。这里的N(u) 默许是封锁邻域,也可以是开放邻域。GAT的首要优点在于不但斟酌了每个节点的一切邻域,而且斟酌了每条边的分歧的相关性,增加了模子表达性。由于对每一条边都计较了留意力分数,GAT的计较劲会很是大。而每条边的自留意力层不太轻易并行化。
3.3 图自编码器Graph Autoencoders

图自编码器GAE属于无监视进修框架,练习数据没有ground-truth标签。是以,计较损失依靠于全部图的拓扑信息,包括节点和边特征。
GAE利用于两类使命:基于图的表征进修和图天生。在两个使命中,首先用一个编码器计较出每个节点的embedding向量h_u,这个编码器可所以ConvGNN或RecGNN。编码器提取的graph embedding是一种低维向量,既包括了节点特征,也连结了图的拓扑信息。编码器发生的embedding被输入到解码器。解码器试图重建邻接矩阵\hat{A},使得\hat{A}与原始矩阵A的间隔最小化,如公式(5)所示,其中\sigma是logistic sigmoid函数[60]。
\hat{A}_{u,v} = decoder(h_u, h_v) = \sigma(h_u^{T}h_v) \tag{5}  
对于表征进修使命,图结构信息是经过构建一个新邻接矩阵来重建的。对于图天生使命,这个进程能够会慢慢地天生节点和边,大概一次性输出整张图。
一个最常用的GAE是在【28】中提出的,其中编码器是GCNs,用来提取图embedding。解码器收集的方针是进修原始邻接矩阵和重建邻接矩阵之间的类似性,这个类似性用内积怀抱。此外,它们还引入了GAE的一个变分版本,用于进修数据的天生是散布。这处理了高容量模子引发的过拟合题目。

关于EDA与GNN的周全综述:理论与利用-3.jpg
3.4 时空GNN

在很多现实利用中,输入图的结构是随时候变化的,即矩阵A和X沿时候轴变化。利用时空图的一个例子是CV范畴的行为识别题目。在这个题目中,人体枢纽,即身材内在毗连,可以暗示为空域图毗连。相邻帧间毗连人体枢纽的边,即帧间边,暗示为时域图毗连。
按照捕捉时空关系的各类层,今朝出现了各类时空图神经收集结构STGNNs。在【60】中夸大了两种首要的结构:基于CNN的和基于RNN的。前者采用ConvGNN来捕捉空域关系,用1-D-CNN层来捕捉时域依靠关系。这样,ConvGNN在A^t和X^t上运算,而1-D卷积层沿X的时候轴滑动。基于RNN的STGNN用两个RecGNN层来别离捕捉空域和时域关系。一个RecGNN层用于X^t,另一个用于H^{t-1}。最初把两个层的输出聚合到一路来获得embedding矩阵H^t。
STGNNs处理了普遍存在的一些题目,比如风行病猜测、行为识别、还有其他的时序猜测题目。比如,【66】中提出了一种新的STGNN模子来处理交通猜测题目。在这个模子中,采用图卷积来捕捉空域关系,用时候轴上的卷积来对时域关系建模。
4.   GNN Pipeline

【72】先容了GNN的设想pipeline。将当前的设想流程分为了4个首要步调:构建输入图、界说图范例和标准、挑选损失函数、构建GNN模子。GNN进修到的graph embedding可以用作其他ML模子的输入,然后构建一个E2E的框架,如图3所示。我们把这个流程总结为3大块,如图4所示。

关于EDA与GNN的周全综述:理论与利用-4.jpg
4.1 图界说

这一步斟酌的是若何把一个使命映照为一个图结构,一种图范例(sec2.2中会商的)。在【72】中界说了两类使命场景:结构化和非结构化的。后一种使命指的是数据不是显现的以图的形式存在的,需要先被转换为graph。在这一步,需要界说每一个节点和边的特征向量。
4.2 使命界说

按照要解的题目,界说使命的粒度和监视设备。对于一个GNN,有三种条理的使命:节点、边、图级别。在节点级此外使命,每个节点的embedding向量用于猜测每个点的特征,对它们停止分类或聚类。在边级别,将一对节点的embedding向量停止比力,以对节点间的毗连停止分类,或猜测能否存在毗连。最初,在图级别,一切节点的embedding向量聚合到一路来获得整张图的一个结论。
按照E2E框架中方针标签能否可用,我们用分歧的方式练习模子:假如一切节点都有标签,就用有监视的方式;假如部分标签未知,用半监视方式;假如没有标签可用,就用无监视方式。方针使命和监视情况决议了练习时若何选用损失函数。比如,节点级此外有监视回归使命用MSE函数作为练习集合一切节点的损失函数。对于节点级此外半监视分类使命,可以对部分有标签的节点利用穿插熵损失函数。
此外,GNN可所以直推式或归纳式进修。直推式GNN对练习图的每个节点进修embedding向量,是以在揣度时,不能泛化到没见过的节点。相反地,归纳式的GNN不是进修embedding自己,而是进修一个能连系节点邻域特征的聚合函数。
4.3 模子界说

在【72】中,GNN模子被界说为一个堆叠的计较模块的聚集。它们提出了用于构建大标准图的GNN模子的三类模块:传布,采样和池化。
传布模块在节点间传布并聚合信息,同时连结特征和拓扑信息。Sec.3展现的分歧范例的GNN层都是传布模块。由ResNet【21】启发的skip connection也被以为是传布模块。Skip connection模块操纵前一层的节点embedding来减缓deep GNN信息传布进程中引发的梯度消失题目。Skip connection形式的例子有毗连到前面一切层,也有一切层都毗连到最初一层。
在GNN中,一个节点的信息会与它的邻节点在前一层的信息聚合起来。这样,deep GNN斟酌和聚合的邻节点指数增加。采样模块减缓了邻节点的爆炸题目。采样粒度可所以节点、层、子图级别。在节点级别,一个节点的邻人数目被限制到一个牢固数目。在层级别,每层只要牢固数目的节点会被聚合起来。最初,子图级别采样把邻人的范围限制到一个采样的子图。
池化模块,受CNN中池化层的启发,削减graph的尺寸会获得更普遍的特征。在文献中有两种首要的池化模块:定向池化,也叫readout或global pooling,对节点特征停止逐点运算,获得一个图级此表面征;分层池化,用分层的形式,逐层进修图表征。
5.   利用于EDA的pipeline

【25,41】是两篇极具影响力的论文,指出了EDA使命和GNN间的重要关联。
【41】最早指出了GNN在EDA使命中的重要潜力。它们指出图结构是表征布尔函数、网表、结构的最直观的方式。它们将GNN视为EDA提升QoR、取代传统浅层模子或数学优化技术的一个机遇。文中列出了用于EDA的剖析式、启发式方式、浅层模子的相关研讨工作。最初它们先容了基于谱方式和空域方式的GNN,展现了两个研讨案例:测试点插入和时钟模子挑选。
在【25】中,回首了用于EDA流程的CNN和GNN。它指出ML可以在分歧的阶段猜测一些重要目标,比如设想空间摸索、能耗分析、物理设想、模拟设想等,进而提升芯片设想流程的QoR。与【41】一样,它也预见了可以用DRL(深度强化进修)来处理EDA中优化题目,与【52】中所做的很接近。
在【41】和【25】中,将今朝大火的GNN与EDA流程连系的动机是很清楚的。可是它们并没有集合在这两个方面。【41】重点在于传统浅层模子的利用,【25】回首了CNN和GNN的利用。此外,【25】从EDA的角度对照了它们的利用,没有揭露背后具体的GNN理念。
正是斟酌到了上述工作的不敷,这篇综述先容了相关布景,回首了近来将GNN利用于EDA范畴的重要研讨。为了厘清这两个范畴的关联,这些研讨的回首是依照它们在数字设想流程中的阶段顺序来构造的。表(1)列出了本文触及到的研讨工作。更多的会商在【54】中,这个综述更重视利用,并深入分析他们的产出。
EDA pipeline 如图(5)所示。一般来说,EDA利用是一个结构化场景,其数据直观地以graph的形式存在,不需要额外的映照。但是,图和特征向量的界说是一个相当重要的步调,需要有关要处理的端到端使命的专业常识。另一方面,特征向量应当包括方针相关的特征,而且一切节点的数据都可以在EDA工具和流程的产出中汇集到。对于有监视或半监视情况,节点的标签数据亦是如此。
经过给定图范例、特征向量和GNN结构的细节,我们将Sec.3中描写的设想pipeline 映照到EDA利用上。

关于EDA与GNN的周全综述:理论与利用-5.jpg

关于EDA与GNN的周全综述:理论与利用-6.jpg
5.1 逻辑综合

在逻辑综合阶段,描写硬件设想的RTL块被映照到技术库中的逻辑单元。这个映照必须在斟酌面积和能耗的情况下,以特定的时钟频次运转,满足时候约束。是以,综合是一个可以利用ML技术的复杂优化题目。比如,可以更早地猜测QoR以避免屡次运转这个耗时的综合步调。
为了正确猜测FPGA块的提早,【55】提出要进修FPGA、特别是DSP和进位块中的数学运算的映照和聚类形式。它们指出,当前的HLS处理计划只是将途径上各个组件的提早相加,没有斟酌到综合进程中完成的底层优化。它们提出了一个新的D-SAGE作为处理计划,D-SAGE是一个GNN,用于猜测逻辑综合中的复杂逻辑映照。在【55】中,将设想映照到数据流程图DFGs. 其中节点是运算的调集(比如加法和乘法),边是节点间的数据依靠。节点范例和数据的bit宽度被视为节点的属性。节点和边按照使命被标志。比如,假如节点被映照为DSP块大概查找表(LUTs),它们就响应的被标志为1或0。同理,假如一条边毗连的两个节点被映照到同一个器件,那这个边就被标志为1。D-SAGE操纵GraphSAGE处置有向图的才能,区分一个节点的先驱节点和后继节点。为此,公式(2)可以分隔到先驱和后继节点上,然后把先驱和后继节点的embedding毗连起来,如公式(6)所示:
h_u^{l+1} = \phi(h_{u,PR}^{(l+1)},h_{u,SU}^{(l+1)}) \tag{6}  
用这些graph embeddings,D-SAGE处理了两个E2E使命:a) 节点二分类,猜测节点被映照到哪个装备;b) 边二分类,将映照到同一装备的节点聚类。在节点分类和边猜测使命上D-SAGE超越了HLS工具的性能,在所稀有据途径上的运算提早估量使命上也超越了HLS工具的表示。
5.2 考证和签发

考证是在功用逻辑和物理设想以后履行的,用来检查设想的功用。特别是在制造之前,必须确保设想的正确性。在签发步调,需要履行一系列的考证,以正式地确认功用性,包括设想收敛性、信号完整性、生命周期检查等等。设想收敛性是按照PPA肯定的。这一步的负面成果将会致使流程回溯并耽误芯片的面市时候。是以,对那些约束条件停止早期、快速、正确的估量可以加速设想进程。
举例说明,能耗完整性验收需要对设想停止能耗分析。基于向量的方式由于其正确性成为首选,但是这些方式需要门级仿真,很是耗时,在现实操纵中被替换为开关活动估量器(SAEs)。SAEs速度快,但不正确。在【71】中,提出了一种基于GNN的替换方式,利用切换率作为输入,提升猜测正确度。为此,它们基于网表构建了一个graph,网表中的单输出组件是graph的节点,边是门之间的毗连。从 RTL 仿真中,输入和寄存器切换率被视为特征节点,它们被编码在一个 4-D 向量中。最初,猜测的门切换率与门级仿真中获得的groundtruth标签停止对照评价。直观上,切换率会从一个级外传递到下一个级别。是以,它们提出了GRANNITE,这是一个序列化和归纳式的GCN版本,其中node embedding的计较是顺序的,而非并行的。利用这些node embedding,GRANNITE能在几秒内从RTL仿真中猜测均匀切换率,正确率高于典范SAE方式。
5.3 布图计划

在芯片布图计划中,网表中首要和较大的块被放置到2-D网格中,在服从设想法则的同时,实现最好PPA。这可以暗示为一个马尔可夫进程,能用RL求解。
该范畴最有影响力的工作是【44】。Google用DRL框架,成功实现了TPU加速器的芯片宏结构。在这篇工作中,RL框架中连系了GNN,以对进程中的分歧状态停止编码,对堵塞、密度、线长的reward停止猜测,同时泛化到未见过的网表。这个架构称为Edge-GNN,它对整张网表计较了节点和边的embedding。这个RL agent给出了与人类设想者相当或更好的成果,而且只需要数小时,而不是几个月。
5.4 结构

在结构阶段,设想中的门被映照到芯片邦畿简直切位置上。设想越大,这个进程越复杂。在结构阶段一个低劣的决议不但会增加芯全面积、使芯片性能变差,而且假如线长跨越了可用的布线资本,甚至会使它没法生产。凡是需要屡次的结构迭代,很耗时而且计较效力不高。是以,结构可以被视为一个有约束的优化题目,研讨职员正在摸索采用ML技术特别是GNN技术以简化这一步调。
【61】中采用了一种称为Net^2^的GAT模子来停止绕线预结构和途径长度估量。它们把网表转换为有向图,将绕线暗示为节点,绕线节点间经过边双向毗连。将单元数目、扇入扇出的巨细和面积用作特征节点。边的特征用聚类和分别红果界说。节点的ground truth标签是结构后鸿沟框的半周线长度。在揣度阶段,Net^2^猜测每个节点的绕线长度,超越了现有处理计划。举例说明,Net^2a^在识别长网和途径上的正确度进步了15%;Net^2f^的运转时候快了1000倍。
在【38,39】中应用GraphSAGE来构建PL-GNN,这是一个帮助结构工具更好决议、加速和优化结构的框架。PL-GNN将网表视为有向超图,然后将他们转化为无向的基于团的图,基于条理信息、 绕线与内存块间的相关性来构建节点和边的特征。之所以斟酌到条理特征,是由于相比于跨条理的元素,在同一个条理的组件间有更多的毗连,同时存储器宏的逻辑层数供给了关于关键途径的直观信息。采用一个GNN来进修节点embeddings,将这些embeddings用加权K-Means算法聚类。聚类成果就是最优结构组。此外,由于节点embedding是用无监视损失函数练习进修到的,PL-GNN可以泛化到任何网表。这个聚类的结构组可以用于指导肆意的结构工具。与贸易工具的默许结构相比,这个结构指导能改良3.9%的线长,2.8%的能耗,85.7%的性能。
【2】中展现了一个将EDA中的PPA优化题目映照到RL题目标概念框架。这个RL框架用GraphSAGE停止无监视练习,来进修可以泛化到未见网表的节点和边的embedding。在这里GCN是一个关键部分,由于它提取结部分和全局信息,这些信息是RL agent所需要的。 作为一个案例研讨,分析了2D结构中的线长优化。
在【1】中,一个自立的 RL agent 以归纳式方式找到了最优结构参数。网表被映照为有向图,节点和边特征是手动设备的结构相关属性。GraphSAGE进修网表embeddings,并能泛化到新设想上。
5.5 布线

在这个步调,依照设想法则(例如范例和答应的角度)对已结构好的元件、门、时钟信号停止布线。这些法则决议了布线的复杂度,大大都是NP-hard或NP-complete题目。是以,布线工具大多是启发式的,它们的方针也不是找最优解。ML方式可以经过供给早期估量来改良布线进程,按照估量来调剂结构,避免大面积和长线。
在【29】中,用GAT来猜测布线堵塞值,仅利用物理设想后的门级网表便可以停止猜测。为此,将网表暗示为无向图,每个门都是一个节点,边是一个网内门间的毗连。特征节点是50-D向量,包括了单元范例、尺寸、管脚数、逻辑描写等信息。为了获得节点的ground-truth标签。将堵塞图分红网格,将每个网格的堵塞值作为该网格内单元的标签。这个被称为CongestionNet的架构不外是个依照公式(4)构建的8层GAT。节点Embeddings用于猜测部分堵塞值。利用GAT提升了猜测质量,对一个跨越100万个单元的电路的揣度时候约为19s。
【37】提出了一个端到真个框架,用基于GNN的LSTM架构来猜测端口布线TNS。它们终极的方针是从设想流程的早期阶段猜测一个设想能否满足签收的时候约束。来自3个阶段的网表(具体结构、优化结构、时钟树综合)被映照到特征图。每个节点的特征都跟使命相关,比如单元的最差败坏、最差输出、输入压摆、驱动收集的开关能耗。这些是从技术库汇集并天生的报告。每个阶段的网表由一个全局GNN停止编码。在这3个阶段的每一步,graph embedding有两个用处,一个是作为猜测模子的输入;另一个是LSTM模子的输入,此时的graph embedding 看成时候序列来用。猜测模子猜测每个阶段的TNS;LSTM把综合流映照为顺序流。每个阶段猜测的NRMSE均匀下降了12.6%,基于GNN的LSTM在2个测试电路上猜测均匀下降了5.2%。
【9】提出了2个RL框架别离来优化结构(DeepPlace)、同时优化结构和布线(DeepPR)。将门级网表映照为超图,其中节点是门单元,超边就是毗连组件的绕线。这两个RL框架的policy收集都是用从CNN获得的全局 embedding 和 从GCN获得的具体节点embedding。前者利用芯片画布作为映照到2值图像的输入。后者采用网表作为超图。全局和细节embedding毗连起来构成战略。DeepPlace的方针是进修宏和标准单元的最优结构,DeepPR的方针是进修宏结构和布线。
5.6 测试

测试仅在设想封装落后行。设想越大,测试工具的复杂度越高,履行时候越长。此外,测试应保证高覆盖率,避免冗余的测试用例。测试不能扩大,高度依靠人的专业常识。为了克服这个应战,ML技术被归入到测试阶段。
例如,经过供给设想中的最好测试点来削减测试复杂度。【42】提出了一种GCN,可以在设想中插入较少的最好测试点,同时最大限度地进步故障覆盖率。为此,利用网表和主端口的组件作为节点,将它们之间的连线作为边来构建有向图。节点特征是一个4D向量,包括关于每个门的逻辑层级、可控性、可观察性的信息。利用Design-for-Test工具可以汇集ground-truth标签,并将节点标志为“易于观察”或“难以观察”。文中提出的GCN模子依照公式(2)天生节点embedding,将其中的聚合函数替换成一个加权和,来区分先驱节点和后续节点。
有了节点embedding以后,用一个二分类器对节点分类。在揣度阶段,新网表的节点被分类为“易于观察”或“难以观察”。这个信息进而被测试工具用来削减测试复杂度。与贸易测试工具相比,【42】在连结不异覆盖率的同时,削减了约11%的观察点。
5.7 逆向工程

在EDA中,逆向工程(RE)是经过度析芯片的每一层从而获得常识产权(IP)或集成电路(IC)设想/技术/功用的进程。此类分析的成果可以用于考证、平安、安保目标【43】。物理RE首先经过解封装从IC获得门级网表,大概经过利用分层、成像、朋分、特征提取技术从GDSII文件中获得。另一方面,功用RE间接从GSDII文件获得门级网表。然后,从逆向工程网表中提取并标志高层级组件。
GNN-RE【4】是一种利用于功用RE网表flatten的GNN。具体来说,端到真个使命是子电路提取和分类。将逆向工程的门级网表映照为无向图,其中节点对应门,边对应毗连它们的线。每个门的特征向量包括与主输入和输出端口的毗连数、按范例分别的两跳毗连门的数目、出度入度。这篇工作比力了分歧范例的GNN和计较模块,例如GraphSAGE,GAT,采样,skip connection。最好的成果是经过利用GAT和一个名为GraphSAINT【67】的采样模块来到达的。GNN-RE进修到的gate embedding传递给一个带softmax激活函数的全毗连层(FC),将每个门分类为某个子电路范例,这能到达均匀98.82%的正确率
与GNN-RE类似,异步双向GNN(ABGNN)【22】也被用于flatten门级网表,来停止子电路分类,但它偏重于算术块。将网表映照到数据无环图,其中节点是电路元件,边是内部的连线。端到真个使命是两个相互自力的二分类题目,别离用于加法器块的输入和输出鸿沟。为了识别门的感化,需要斟酌暗示门输入(扇入锥)和输出(扇出锥)的节点。是以,节点的传入边不可是有向的,而且是双向的。遭到异构GNN的启发,ABGNN采用2个GNN来别离聚合扇入锥和扇出锥的信息。节点embedding组合区分先驱节点和后续节点,类似于公式(6)中的D-SAGE. 最初,受网表无环性质的启发,ABGNN异步地传布节点embedding。终极获得的节点embedding输入到一个带BCE损失函数的MLP中。

关于EDA与GNN的周全综述:理论与利用-7.jpg
5.8 模拟设想

模拟设想流程的高复杂度是由于较大的设想空间和信号对于噪声的敏感性。所以模拟流程可以从ML等现代方式中受益非浅,从而使方式现代化并进步QoR。特别是,GNN正被利用于该范畴。表2列出了本综述触及的研讨工作。
【46】中利用GNN来猜测寄生电容和器件参数。将设想道理图转换为超图,并作为ParaGraph【46】的输入。ParaGraph是一种连系了GraphSAGE和GAT思惟的GNN。【35】中拓展了ParaGraph来猜测寄生电阻和耦合电容。为此,采用GAT的ParaGraph获得了源节点和方针节点的embedding。为了猜测这些节点间的耦合电容和寄生电阻,将它们的embedding输入到一个利用双线性层的回归收集,进而将猜测的结构后的寄生效利用于贝叶斯优化。
CircuitGNN【69】利用GCN来猜测每个节点的磁性,其中节点是谐振器组件,边是它们的磁电耦合。Circuit Designer【59】利用GCN来提取电路中的节点embedding,尔后将这些embedding输入到一个RL agent,这个RL agent的方针是晶体管尺寸测定(工艺无关的)。将模拟电路映照到一个graph,其节点是晶体管,边是连线。【32】中先容了一个名为边沿留意力池化(PEA)的新架构,用来评价分歧的结构计划若何影响模拟电路的性能。
【30】中展现了一个基于GCN的自动网表标志(GANA),用作块识此外战略。这个步调凡是是按照人的专业常识履行的,是以,它的自动化是无人介入的模拟电路设想流程的根本部分。GANA将flatten的晶体管层级的网表转换为二分图,其中绕线和元素是节点,只要在元素和其对应的绕线之间有边。边特征表述了元素若何毗连到它的绕线,即是经过源极、漏极还是栅极。节点embedding经过一个带Softmax激活函数的FC层来实现分类。输出种别标识着较大块的分歧变体,比如低噪声放大器、运算跨导放大器和混频器。GANA的输出成果可以用于指导电路邦畿优化。
在与【30】不异的范畴,【47】将GCN用作基元结构识别。【47】将拉平的晶体管层级网表映照为无向图。其中特征节点包括装备模子和范例、有用宽度、通道长度等属性。将绕线标志为电源线、接地线、或信号线。晶体管到绕线的毗连范例决议了一个绕线的编码向量,即毗连能否是从漏极、源极、栅极端子到电源、接地或信号net的。与【30】中相反的是,【47】采用K-Means算法来找到节点的部分标签,然后用半监视方式练习GCN来猜测剩下的无标签器件的种别。聚类个数K是用一个回归模子估量获得的。经过回归模子、K-Means、GCN这样一个pipeline以后的成果会在约束驱动的设想流程中利用,将分歧的设想法则利用于每个已识此外结构。
在【13】中,用GraphSAGE对模拟结构约束停止自动标志。用一个GNN来判定节点对能否是对称的,即它们在邦畿上必须对称结构。将模拟网表映照为超图,其中节点是管脚和器件,如晶体管、二极管、电容器、电阻器。超边是它们之间的毗连。特征向量是one-hot编码,暗示器件或管脚的范例。将天生的节点embedding输入到一个具有双线性打分函数的二分类器,进而辨别节点对能否是对称的。
6 经历经验:EDA的利用成果

在本章中,我们总结了以上工作的经历经验。
6.1 GNN的上风

基于GNN的架构优于其他模子或处理计划。上述工作将它们的成果与浅层ML方式,深度进修方式、或特定使命的baseline停止了比力。毋庸置疑,GNN的优越性是由于它斟酌了拓扑和特征信息,而它的价格是更多投上天构建数据集,更高的练习时候。
6.1.1 与浅层ML方式比力。

在【42】中,基于GNN的模子在二分类使命上的表示超越了传统ML技术比如LR、SVM、随机森林、MLP。此外,相较于贸易级产业工具,它在不损失故障覆盖率的情况下,削减了11%的插入测试点和6%的测试形式。在GNN-RE【4】的工作中,在有监视分类使命上对照了基于GNN的模子和SVM模子,它们对每个节点都是用不异的特征向量。但SVM仅斟酌了单节点特征,没能斟酌邻节点特征。SVM的练习时候几近比GNN-RE少了10倍。可是GNN在分类目标上明显优于SVM。ParaGraph【46】与XGBoost,LR模子,还有vanilla GraphSAGE模子停止了比力,它的猜测精度均匀比XGBoost好77%、比LR好110%,比vanilla GraphSAGE好7%。
6.1.2 与深度ML方式比力。

D-SAGE【55】与MLP和普通GraphDAGE模子停止了比力。基于GNN的模子优于MLP,夸大了结构信息与操纵映照的相关性。此外,由于斟酌了边的偏向信息,D-SAGE的成果比GraphSAGE提升了17%。类似的,在输入和输出鸿沟分类使命上,定制化的ABGNN【22】也好过普通的GraphSAGE、GAT和GIN,同时揣度时候也别离削减了19.8%和18.0。相比于用(层衰减和-存在向量 LDDS-EV)来暗示电路拓扑的NN,ABGNN的性能更好,运转时候更少。在【49】中,Circuit Designer与一般的RL结构停止了比力。分歧的尝试都显现了GCN-RL的优越性,在没有益用graph的RL方式永久不收敛的情况中,GCN-RL可以收敛。Circuit Designer的成功还归功于特征向量的界说斟酌了线性晶体管参数。相比普通GAT和利用邦畿图像的CNN模拟模子,PEA【32】的优越性也获得了证实。
6.1.3 与特定使命baseline相比力。

GNN的上风与2个身分有关:界说好的初始特征、图进修才能。好的特征能捕捉使命的潜伏性质,并为图进修供给贵重的信息。GNN可以捕捉特征和拓扑信息。相比于只斟酌了图连通性的方式来说,这有明显的益处。比如,在PL-GNN【39】中,条理相关的特征用于进修哪些节点是类似的,而内存关联性相关特征能帮助平衡关键途径。PL-GNN优于仅利用连通性信息的模块化聚类方式。在一切金属层的堵塞猜测使命上,CongestionNet跨越了baseline方式29%;当只猜测低层堵塞时,跨越baseline75%。虽然如此,CongestionNet在单个GPU上的练习时候需要60小时。在揣度阶段,对于130万个单元,它的运转时候削减到了19秒,这比baseline模子的运转时候还低。Edge-GNN与开源的全局结构工具RePLAce3、还有益用产业级EDA工具的野生结构成果停止了对照,在跨越10000个芯片布图计划的数据上练习以后,Edge-GNN表示更好,在负败坏度、总面积、能耗、堵塞这几个方面给出了更好或相当的成果。类似于Edge-GNN,DeepPR比RePLAce快了约4倍,同时在公然benchmark上显现了有用性。Circuit-GNN可以处置分歧尺寸和拓扑的电路,与人类专家利用仿真工具相比削减了4被的仿真时候。与GPU加速的传统几率SAE相比,GRANNITE在运转时候相仿的情况下,毛病率均匀下降了25%。在对称约束分类使命上,GraphSAGE超越了利用图婚配和信号流分析这两种baseline方式。GraphSAGE在运转时候相仿的情况下,给出了更高的TP和更低的FP。
6.2 图范例

我们回首的一切益用里面输入都是一个网表。但是,网表到graph的映照是分歧的。graph的范例、特征向量、标准是按照使命、设想流程(模拟的或数字的)、笼统条理来界说的。表3和4总结了本篇综述触及的利用中利用的graph范例。

关于EDA与GNN的周全综述:理论与利用-8.jpg

关于EDA与GNN的周全综述:理论与利用-9.jpg
6.3 模子深度

GNN模子的层数是一个超参。层数太多会使输出的embedding过于平滑,下降端到端使命的正确率。是以,更深的模子需要更大的数据集【64】。
在模拟利用中,比如GANA,电路数目有限,所以用了一个2层GNN,在约1000个电路上练习了2小时。在GNN-RE的尝试中,尝试扫描了分歧的GNN深度,当GNN深度增加到4层时出现了过于平滑的题目。在层数更少时,性能的提升是以更长的练习时候为价格的。在Net^2^【61】中,用调理超参的方式寻觅合适的层数,最初它们利用了3层GNN,加上2层FC。相反,D-SAGE利用了2层GNN和3层FC;【37】利用了2层GNN和2层FC;PEA【32】用了4个GAT和5个FC层。总的来说,层数和ConvGNN中的滤波器尺寸,都是需要fine-tune的超参数。就我们所知,所用的层数一般在2-5之间。
6.4 传统机械进修技术

从非图的ML模子学到的一些经历经验一样适用于GNN。 例如,GANA【30】利用batch normalization来保证一切输入的特征都在一样的数值范围,利用dropout来避免overfitting。将练习数据分红练习集和考证集。后者用做进修率、正则化、衰减率之类的超参优化。激活函数比如ReLU和tanh也被评测过。在GNN-RE【4】中,对分歧GNN结构停止了超参搜索,其中最好的结构利用了dropout、激活函数采用ReLU、优化器用Adam,sampling模块用Random Walk。在Net^2^【61】中,用超参搜索来寻觅最优的进修率和momentum因子。在每个GNN层以后利用Batch Normalization来到达更好的收敛,优化器选的是随机梯度下降(SGD)。D-SAGE【55】也利用了一组进修率、权重衰减因子、ReLU激活函数、SGD优化器。此外,它还用了BCE作为端到端二分类使命的损失函数,在该损失函数上用了early stopping战略。在Edge-GNN中也利用了early stopping机制来避免过拟合,一旦policy收敛,就停止RL练习。
其他ML技术也跟GNN一路结合利用。比如,在【35】中,将graph embedding输入到一个贝叶斯优化器,来猜测prediction的不肯定性。在【37】中,用t-SNE技术对graph embedding停止降维评价并可视化。
6.5 工具

机械进修模子在分歧范畴的普遍利用与开源的机械进修框架和数据集是有关系的。类似地,现有的GNN框架、EDA工具和技术也激起了用GNN来处理EDA使命的技术摸索。
最著名的GNN框架有基于PyTorch的PyTorch Geometric(PyG)【12】,基于TensorFlow和Keras的Spektral【15】,还有与框架无关的DGL。PL-GNN【39】、CongestionNet【29】,Net^2^【61】【37】是基于PyG的,而ParaGraph【46】及其扩大版【35】、GRANNITE【71】和ABGNN【22】是基于DGL的,GNN-RE和GANA用的是TensorFlow。
关于EDA工具,模拟利用如PEA【32】、GANA【30】、Circuit Designer【59】【13】采用SPICE构建数据集。后者也用了从开源工具ALIGN天生的数据集。数字利用比如【1】、GNN-RE【4】、NET2【61】、PL-GNN【39】、ABGNN【22】【37】利用了用于综合的Synopsis工具如Design Compiler和IC Compiler。【1】和Net^2^【61】的结构采用了Cadence Innovus;Edge-GNN【44】用了RePLAce停止整体结构。D-SAGE【55】用了Vivado HLS;Circuit-GNN【69】用了贸易的电磁仿真器CST Studio Suite。
如表5中所列,分歧的利用办事于分歧的工艺。其他利用贸易化工艺的利用没有供给更多细节。Circuit Designer【59】利用5个分歧的工艺来评价迁移进修的成果。

关于EDA与GNN的周全综述:理论与利用-10.jpg
7 应战和未来研讨偏向

接下来,我们将展现一般的GNN和EDA中的GNN所面临的开放应战。然后我们指出一些未来工作偏向。
7.1 GNN的应战

在【72】中论述了GNN的四个首要题目:鲁棒性、可诠释性、预练习、和复杂图范例。GNN与其他NN类似,易受匹敌性进犯,而且其表示类似黑箱。在现实利用中利用GNN,应保证猜测的平安性和可诠释性。另一方面,GNN的练习凡是很耗时,并需要大范围数据集。为了克服这些题目,需要像其他NN一样,摸索GNN的预练习技术。别的,实在利用中的数据会被映照为各类复杂的图结构,如超图、异构图、静态图,这些图的品种还是正交的,我们希望GNN可以顺应这类图的多样性。
图的可扩大性也是GNN面临的一个开放性应战。图越大,练习时候越长。我们希望GPU的利用和其他计较方式如采样、池化、skip connection等的拓展可以减缓这个题目。
7.2 EDA中GNN面临的应战

从EDA的角度来看,将GNN利用于设想流程时,上面提到的应战会更严重,特别是可扩大性和图的多样性【41】。在EDA中,输入图暗示分歧的笼统层级上的电路网表,凡是尺寸很大。大图会形成庞大且稀疏的邻接矩阵、很是大的节点列表,其计较劲很大且耗时。另一方面,EDA工具直观上更类似于一些复杂图范例,而不是简单的无向图或有向图。直观上,电路网表是有向的超异构图【39】,像是DAG【22】大概DFG【55】。为了与这些图范例相配合,应当制定一些新的GNN架构,如【22,55】所做的那样。针对EDA工具定制GNN架构,提升应对复杂图范例的性能,仍然是一个开放性的研讨课题。
现实上,我们以为数据天生仍然是一个开放性应战。EDA工具链是天生EDA工具、统计数据、报告的一系列自力工具的合集。数据虽然可用,但没有可以加速数据天生和图形映照的标准的数据收集根本设备。此外,在数据收集和标志进程中,EDA工具的输出被用做ground-truth标签。当采用牢固的工具超参运转时,能够会致使非最优的、稀疏的、有偏数据。
7.3 未来工作

我们期望未来的工作可以处理上述提到的应战性题目。按照所列的EDA利用,我们指出3个首要偏向:
7.3.1 操纵迁移进修。

像CongestionNet之类的利用不是工艺无关的,即它们用特征向量和标签构建的数据集,依靠于所用的工艺。对于一个新的处置工艺,需要重新构建数据集,重新练习模子。所以我们期望未来的EDA利用对采用迁移进修的GNN停止评价,就像【19,32,44,59】中所做的一样。例如,GCN-RL Circuit Designer受益于RL的可迁移性,并用它在5种分歧工艺的节点和拓扑之间停止常识迁移。
7.3.2 操纵特征信息。

如【39】所提到的,GNN成功的一个身分是特征向量的杰出界说。是以,我们以为未来的研讨应当对分歧节点特征停止评价,以提升当前处理计划对更先辈工艺和更复杂使命的可扩大性和泛化性。摸索新特征的影响也被CircuitDesigner【49,59】和CongestionNet【29】列为未来工作。例如,当前的CircuitDesigner仅利用了线性晶体管参数作为特征。未来工作中需要覆盖非线性特征以支持非线性的组件范例。【29】做了一个消融尝试,用来判定特征对于CongestionNet猜测的重要性。成果是,跟单元范例或功用相关的特征比跟单元多少相关的特征更重要。是以,未来工作需要包括一些新特征比如管脚和边范例。别的,相比于无向图,它们提倡利用有向图或超图。Net^2^【61】在线长估量上获得了好成果,作为未来工作,应当拓展特征集来处理预结构时序分析中更复杂的使命。类似地,用于寄生电容猜测的ParaGraph【46】被拓展至耦合电容和寄生电阻的猜测【35】。这个拓展的ParaGraph将会有助于模拟设想的优化和自动化。
7.3.3 扩大数据集

在某些利用中,基于GNN的处理计划还没有到达完整的正确性。这可以经过将GNN的输出停止后处置来处理,就像GANA【30】中一样。但是,我们期望未来可以扩大练习数据和特征集来进步正确率,如GRANNITE【71】所提倡的那样。更大的数据集可以支持更深的模子,进而获得更好的成果。对于数据集天生,我们提倡更多天时用开源的EDA工具和技术。假如能有一个开源的标准化的数据收集根本设备,将会极大削减图构建、映照、标志的工作,为GNN和EDA的研讨赋能,使研讨成果能有benchmark可比力。
8 结论

据我们所示,这篇工作是收集关于 EDA 和现代 GNN 之间穿插的开创性论文的第一篇工作。在所展现的工作中,GNN超越了baseline 的方式。但是,由于EDA中电路复杂度延续增加,可扩大性和异构性仍然存在很大应战。我们期待GPU的利用能减缓这个瓶颈。我们以为ML与GNN相连系的庞大潜力将为更多针对 EDA 流程的处理计划翻开大门。我们希望将网表、邦畿、中心RTL暗示为图结构能加速硬件目标的早期猜测,希望RL的利用能处理EDA中的组合使命。最初,我们还展望未来关于 GNN 的工作将针对一些与开放图相关的应战,例如图的异质性、可扩大性和多样性。

原文地址:https://zhuanlan.zhihu.com/p/596188966
免责声明:本帖内容由机械人自动收集于互联网,如加害了您的权益,请联系我们【E-Mail:cb@yoyodoc.com】 我们会实时删除侵权内容,给您带来未便,深感歉意!
您需要登录后才可以回帖 登录 | 立即注册

本版积分规则

QQ|Archiver|手机版|小黑屋|小悠文档创作分享社区 ( 粤ICP备11072215号 )|网站地图

GMT+8, 2025-1-18 15:57 , Processed in 0.523035 second(s), 26 queries .

Powered by Discuz! X3.5

© 2001-2024 Discuz! Team.

快速回复 返回顶部 返回列表