本发明公开了一种模型结构动态可变更新的联邦学习方法,将超网网络每一层的剪枝化率表示为基因,多个基因由底层至顶层拼接而成的向量在服务器端构成超网网络染色体;客户端对超网网络进行初始训练,选择基线输入和随机输入的真实图像,通过集成梯度评估每一层特征图之间的重要性;根据特征图的重要性对每个卷积层和全连接层的剪枝进行筛选,移除该层的卷积核和下一层与之对应的所有输入连接;个性化剪枝完毕后,更新全局剪枝率。与现有技术相比,本发明所实现的个性化剪枝技术的应用可以有效减少模型的大小,降低联邦学习的通信和计算负担,并且每个客户端动态地产生适配其资源和应用需求的本地模型。
1.一种模型结构动态可变更新的联邦学习方法,其特征在于,具体步骤包括:
步骤1、服务器构建一个超网网络,所述超网网络用于学习到所有客户端多样的私有数据分布;
步骤2、服务器对超网网络的个性化剪枝率问题进行特征图编码;
步骤3、将超网网络每一层的剪枝化率表示为基因,多个基因由底层至顶层拼接而成向量,在服务器端构成超网网络染色体;
步骤4、服务器将所述超网网络的特征图编码和染色体作为初始染色体下发给各客户端;
步骤5、客户端对超网网络进行初始训练,训练过程为将本地数据输入到超网网络进行训练直至超网网络收敛,客户端根据服务器下发的初始染色体进行个性化剪枝;
步骤6、选择基线输入和随机输入的真实图像,通过计算特征图与基线图像之间的差异并对该差异乘以从基线到真实输入的路径上特征图梯度的积分得到集成梯度,计算每一层特征图通道内的相关系数,进而评估每一层特征图之间的重要性;
步骤7、根据特征图的重要性对每个卷积层和全连接层的剪枝进行筛选,移除该层的卷积核和下一层与之对应的所有输入连接;
步骤8、个性化剪枝完毕后,根据接收到的个性化剪枝后的特征图更新客户端;
步骤9、客户端将所述个性化剪枝后的客户端特征图发送给服务器;
步骤10、服务器接收每个客户端的所述个性化剪枝后的客户端特征图,并根据个性化剪枝后的客户端特征图对超网网络模型参数进行参数融合以实现超网网络更新;
步骤11、服务器根据所有客户端的所述个性化剪枝后的客户端特征图来更新全局染色体,检验全局染色体是否满足训练停止条件,若满足条件,则输出全局剪枝率,若不满足条件,则返回至步骤5,继续执行步骤5~步骤11,直至全局染色体训练停止。
2.根据权利要求1所述的一种模型结构动态可变更新的联邦学习方法,其特征在于,该方法还包括根据服务器进行特征图位置信息统计、通道保留概率统计和概率分布图其中之一的统计结果,迭代地进行全局染色体的更新,以保证全局染色体对于所有的客户端达到全局最优状态。
3.根据权利要求2所述的一种模型结构动态可变更新的联邦学习方法,其特征在于,所述特征图位置信息统计包括:服务器分析每个客户端上传的特征图编码,确定每个通道是否被保留;对于第i个客户端的第l层位置p上的编码表示为Cilp,如果位置p的特征图被保留,则该通道的编号Cilp>0,否则,该通道的编号Cilp=0,表示位置p的特征图不重要,允许进行剪枝。
4.根据权利要求2所述的一种模型结构动态可变更新的联邦学习方法,其特征在于,所述通道保留概率统计,包括对第l层的每个通道p统计其被保留的概率Plp,表达式如下:
其中,为指示函数,N为客户端的总数,m为通道的编号满足Cilp>0的客户端的个数。
5.根据权利要求2所述的一种模型结构动态可变更新的联邦学习方法,其特征在于,所述记录概率分布图,包括对于超网网络每一层l,以该层所有通道统计的保留概率为基础,绘制该层所有通道位置保留概率的分布图;计算分布图的第l层概率分布的均值μl和方差如下式所示:
其中,Ml为第l层的通道数;
使用概率分布的均值μl和方差确定第l层的剪枝率Rl,利用剪枝率Rl更新某一层的剪枝率,剪枝率Rl的表达式如下:
Rl=μl+σl
其中,σl为方差的平方根;
以剪枝率Rl作为第l层的染色体,指导客户端进行特征图剪枝,服务器依据剪枝结果重组全局染色体,即更新每一层的剪枝率,服务器根据统计的每一层的剪枝率,再次重组染色体,染色体由每一层的剪枝率构成;
具体的,服务器为每一层计算一个剪枝率,从而为客户端提供剪枝的指导;
服务器将重组后的全局染色体下发给各客户端,客户端对染色体的值进行判断,若某层染色体值大于当前剪枝率,则继续训练,训练完按照染色体值进行剪枝,若某层染色体值小于当前剪枝率,则添加神经元或特征图后进行训练。
6.根据权利要求1所述的一种模型结构动态可变更新的联邦学习方法流程,其特征在于,步骤6进一步包括以下处理:
6.1、选择一个基线输入并重构真实输入图像来构建集成梯度,计算每一层特征图通道内的相关系数,用来评估每一层特征图之间的重要性,具体处理如下:
6.1.1、选择基线输入x′和随机输入的真实图像x:
6.1.2、通过计算特征图与基线图像之间的差异,并对该差异乘以从基线到真实输入的路径上特征图梯度的积分得到集成梯度,所述集成梯度用于评估每个特征图的重要性:
对于真实图像第l层第k个通道的每个特征图Xl,k,计算集成梯度,如下式所示:
其中,F为模型输出函数,α为插值系数,Xl,k(x′)为基线输入x′的第l层第k个通道的每个特征图;
6.1.3、对于真实图像中第l层的每对特征图Xl,k和Xl,m,计算它们的相关性Corr(Xl,k,Xl,m),通过统计方法计算评估特征图的重要性;
6.1.4、计算对于第l层的第k个特征图的重要性Il,k,如下式所示:
其中,Y为联邦学习网络输出,Xl,k,i为第l层第k个特征图的第i个元素;
6.1.5、构建特征图重要性和相关性联合表征阈值,具体包括:
考虑特征图间的相关性调整重要性分数:
其中,为综合了特征图间相互作用后和通道内特征图重要性的分数值。
7.根据权利要求1所述的一种模型结构动态可变更新的联邦学习方法流程,其特征在于,步骤7进一步包括以下处理:
7.1、根据特征图的重要性,设置一个阈值T来确定哪些通道特征图应该被剪枝;
7.2、对于每个卷积或全连接层,如果某个特征图的重要性Il,k小于阈值T,则将其剪枝;如果剪枝第l层的第k个特征图,则移除该层的第k个卷积核和下一层与之对应的所有输入连接;
7.3、在剪枝后,对网络进行重新训练或微调,以补偿因剪枝造成的性能损失。
8.根据权利要求1所述的一种模型结构动态可变更新的联邦学习方法流程,其特征在于,步骤8进一步包括以下处理:
个性化剪枝完毕后,客户端更新接收到的特征图编码:若某个位置的特征图或全连接层神经元被剪枝,则该位置的特征图编码序号更改为0,通过该方式重写特征图编码,记为客户端特征图编码。
9.根据权利要求1所述的一种模型结构动态可变更新的联邦学习方法,其特征在于,对于全连接层,客户端判断激活函数层的激活值大小,对激活值最小的N个神经元予以删除。
10.根据权利要求1所述的一种模型结构动态可变更新的联邦学习方法,其特征在于,步骤11进一步包括以下处理:
服务器收集所有客户端的特征图编码,并分析这些编码以确定哪些特征图(或通道)在多数客户端中被保留;对于每个特征图或通道,计算其在所有客户端中被保留的频率,以评估其重要性;服务器从所有客户端收集每一层的特征图编码,特征图编码包含位置信息,表示每个通道是否被保留。
技术领域
[0001]本发明属于数据处理技术领域,更进一步涉及机器学习模型梯度数据处理技术领域中的一种模型结构动态可变更新的联邦学习全局模型训练方法。
背景技术
[0002]在近年来,随着人工智能和机器学习技术的迅速发展,联邦学习作为一种新兴的分布式机器学习范式受到了广泛关注。联邦学习旨在让多个客户端共同参与到一个共享模型的训练中,同时保持各自数据的隐私和安全。这种学习方式在处理分布式、异构数据源时显示出巨大潜力,特别是在如今对隐私保护日益重视的背景下。
[0003]然而,尽管联邦学习具有显著优势,但它也面临着一些重要的挑战。首先,由于参与训练的客户端(如智能手机、医疗设备、汽车等)往往具有不同的数据分布,传统的联邦学习模型很难在这样的异构数据上达到良好的泛化性能。其次,联邦学习要求在客户端和服务器之间进行大量的数据交换,这不仅增加了通信成本,也对客户端的计算和存储能力提出了挑战。因此,如何在保持数据隐私的同时,有效地处理这些问题,成为了联邦学习领域的关键研究课题。
[0004]超网是一个大型、包含多个参数的网络,通过引入超网能够更好地适应和学习不同客户端的数据分布。
[0005]因此,如何实现更高效、更安全的自适应的联邦学习是本发明亟待解决的技术问题。
发明内容
[0006]针对上述的联邦学习中的所要解决的主要问题,本发明提出了一种模型结构动态可变更新的联邦学习方法,每个客户端分配个性化目标函数模型,通过遗传算法结合服务器端的过参数化的超网网络和客户端染色体构建和训练个性化的个性化剪枝技术,实现了模型自适应的联邦学习算法,为服务器上的全局模型提供可用的高质量更新。
[0007]本发明利用以下技术方案实现:
[0008]一种模型结构动态可变更新的联邦学习方法,具体步骤包括:
[0009]步骤1、服务器构建一个超网网络,所述超网网络用于学习到所有客户端多样的私有数据分布;
[0010]步骤2、服务器对超网网络的个性化剪枝率问题进行特征图编码;
[0011]步骤3、将超网网络每一层的剪枝化率表示为基因,多个基因由底层至顶层拼接而成的向量在服务器端构成超网网络染色体;
[0012]步骤4、服务器将所述超网网络的特征图编码和染色体作为初始染色体下发给各客户端;
[0013]步骤5、客户端对超网网络进行初始训练,训练过程为将本地数据输入到超网网络进行训练直至超网网络收敛,客户端根据服务器下发的初始染色体进行个性化剪枝;
[0014]步骤6、选择基线输入和随机输入的真实图像,通过计算特征图与基线图像之间的差异并对该差异乘以从基线到真实输入的路径上特征图梯度的积分得到集成梯度,计算每一层特征图通道内的相关系数,进而评估每一层特征图之间的重要性;
[0015]步骤7、根据特征图的重要性对每个卷积层和全连接层的剪枝进行筛选,移除该层的卷积核和下一层与之对应的所有输入连接;
[0016]步骤8、个性化剪枝完毕后,根据接收到的个性化剪枝后的特征图更新客户端;
[0017]步骤9、客户端将所述个性化剪枝后的客户端特征图发送给服务器;
[0018]步骤10、服务器接收每个客户端的所述个性化剪枝后的客户端特征图,并根据个性化剪枝后的客户端特征图对超网网络模型参数进行参数融合以实现超网网络更新;
[0019]步骤11、服务器根据所有客户端的所述个性化剪枝后的客户端特征图来更新全局染色体,检验全局染色体是否满足训练停止条件,若满足条件,则输出全局剪枝率,若不满足条件,则返回至步骤5,继续执行步骤5~步骤11,直至全局染色体训练停止。
[0020]相较于现有技术,本发明的有益技术效果如下:
[0021]1)所实现的个性化剪枝技术的应用可以有效减少模型的大小,降低联邦学习过程中的通信和计算负担;
[0022]2)在不降低全局模型性能的前提下,为每个客户端动态地产生适配其资源和应用需求的本地模型,并降低客户端的通信成本和计算成本,使得模型能够被部署在计算资源受限和需要快速响应时间的设备上;
[0023]3)采用通过联合层间特征图的重要性、特征图之间相关性分析联合层内通道进化性评估实现特征图的重要性筛选,准确量化特征图对输出的贡献。
附图说明
[0024]图1为本发明的一种模型结构动态可变更新的联邦学习实施框架示意图;
[0025]图2为本发明的一种模型结构动态可变更新的联邦学习方法流程图;
[0026]图3为本发明的个性化剪枝过程示意图;(a)初始状态的超网网络,(b)个性化剪枝后的超网网络。
具体实施方式
[0027]下面将结合附图,对本发明技术方案进行详细地描述。
[0028]实施例一:
[0029]如图1所示,为本发明的一种模型结构动态可变更新的联邦学习实施框架,结合该实施框架首先介绍问题定义,定义K个客户端,每个客户端都有一个只能用于本地数据的存储和处理的私有数据集。联邦学习的目标是从多个客户端间分散的数据集中学习一个全局模型,以非凸神经网络优化为例,本地模型的目标函数f(w)定义如下所示:
[0030]
[0031]其中,fi(w)为模型参数w对第i个训练样本(xi,yi)进行预测的损失,N为总样本数,代表d维的实数集。因此,K个客户端进行联邦学习联合建模的目标函数表示为:
[0032]
[0033]为了解决上述问题,本发明提出一种模型结构动态可变更新的联邦学习方法,具体地说,在服务器端部署一个过参数化的超网网络以便学习到所有客户端多样的私有数据分布。超网的每一层及层的深度都足以支撑客户端的模型训练任务。为了提高模型的本地个性化程度,在每个客户端都建立与其私有数据分布适配的子网。为了缓解通信和计算压力,通过剪枝的压缩方法减小子网体积。子网由超网通过个性化剪枝得到,其参数继承自超网中对应的网络单元。每一轮通信中,服务器将超网和染色体分发给对应的客户端,客户端根据本地私有数据分布计算超网中各个网络单元的重要性,并结合染色体中编码的剪枝率,对超网进行个性化剪枝得到子网。
[0034]由于子网只保留对本地私有数据最有价值的部分网络单元,对应的模型参数对网络的预测影响较大。而网络更新和反向传播也只在这部分最重要的网络单元上进行,从而增强了网络对数据的拟合能力。服务器接受所有的染色体后,更新进化策略参数并得到下一代染色体;同时,将子网按原位置聚合到超网上,完成对超网的更新。不同客户端分别优化超网的不同区域,减弱了超网上网络单元之间形成复杂的内在互相关性,同时避免了未经训练的冗余参数在聚合过程中对超网的干扰,从而增强了超网的泛化能力和鲁棒性。
[0035]如图2所示,本发明的一种模型结构动态可变更新的联邦学习方法流程,具体步骤如下:
[0036]步骤1、服务器构建一个超网网络,所构建的所述超网网络用于学习到所有客户端多样的私有数据分布;超网网络为过参数化的神经网络预设超网络中的每一层及层的深度都足以支撑客户端的模型训练任务;
[0037]步骤2、服务器对超网网络的个性化剪枝率问题进行特征图编码,具体的编码方式为根据特征图的通道排序为每个特征图构建统一的编码序号;
[0038]步骤3、将超网网络每一层的剪枝化率表示为基因,多个基因由底层至顶层拼接而成的向量在服务器端构成超网网络染色体;基因特指剪枝化率,通过剪枝化率服务器指导各个客户端实现对超网的剪枝;对每个基因进行遗传操作,以卷积神经网络为例,每一个卷积层、全连接层的剪枝率对应染色体中的一个基因,因此染色体长度L=Nc+Nf,其中,Nc为卷积神经网络中卷积层的数目,Nf为卷积神经网络中全连接层的数目;
[0039]超网络特征图编码是每个通道特征图的编号,客户端收到后称为客户端特征图编码;
[0040]a.产生染色体初始化种群;b.使用功率控制机制增强异构网络性能;c.计算染色体合理性系数;d.执行遗传算法;e.检验综合优化输出结果是否满足停止计算标准,若满足要求,则输出网络综合优化结果,若不满足要求,则返回至子步骤b。
[0041]步骤4、初始时,服务器将超网网络的特征图编码和染色体作为初始染色体下发给各个客户端;
[0042]步骤5、各个客户端对超网网络进行初始训练,训练过程为将本地数据输入到超网网络进行训练由于超网是过参数的,在训练一定周期后,超网网络收敛,客户端开始根据服务器下发的初始染色体进行个性化剪枝;
[0043]步骤6、选择基线输入和随机输入的真实图像,通过计算特征图与基线图像之间的差异并对该差异乘以从基线到真实输入的路径上特征图梯度的积分得到集成梯度,计算每一层特征图通道内的相关系数,评估每一层特征图之间的重要性,同时,直观的方式来解释模型的决策过程,即了解哪些输入特征对于模型的输出至关重要。真实预测特征对模型的结果产生的影响;本步骤执行结构化和个性化的进化方法,具体过程如下:
[0044]6.1、选择一个基线输入并重构真实输入图像来构建集成梯度,计算每一层特征图通道内的相关系数,用来评估每一层特征图之间的重要性;具体处理如下:
[0045]6.1.1、选择基线输入和随机输入的真实图像:
[0046]·选择一个基线输入图像x',例如一个全黑的图像;
[0047]·随机抽取100个真实图像,求所有图像输入的平均值,从而构建真实输入图像x;
[0048]6.1.2、通过计算特征图与基线图像之间的差异,并对该差异乘以从基线到真实输入的路径上特征图梯度的积分得到集成梯度,所述集成梯度用于评估每个特征图的重要性:
[0049]·对于真实图像第l层第k个通道的每个特征图Xl,k,计算集成梯度,如下式所示:
[0050]
[0051]其中,F为模型输出函数,是特征图Xl,k的梯度,α为插值系数,用于在基线输入图像x′和真实输入图像x之间创建一个连续的路径,这个系数从0变化到1,代表了从基线状态到实际输入状态的过渡。具体来说,表达式x′+α×(x-x′)代表了从基线图像x′到真实图像x之间的一个中间状态,α的变化就是这个过渡路径上的不同点,Xl,k(x')为。
[0052]6.1.3、计算特征图间的相关性:
[0053]对于真实图像中第l层的每对特征图Xl,k和Xl,m,计算它们的相关性Corr(Xl,k,Xl,m),通过统计方法,如皮尔逊相关系数计算评估特征图的重要性;其中特征图表示为m×n矩阵;
[0054]6.1.4、通过计算其对联邦学习网络输出的贡献来评估特征图的重要性,对于第l层的第k个特征图的重要性Il,k,如下式所示:
[0055]
[0056]其中,Y为联邦学习网络输出,Xl,k,i为第l层第k个特征图的第i个元素,求导数的结果表示该特征图如何影响最终输出;
[0057]6.1.5、构建特征图重要性和相关性联合表征阈值,具体包括:
[0058]·考虑特征图间的相关性调整重要性分数:
[0059]
[0060]其中,为综合了特征图间相互作用后和通道内特征图重要性的分数值。
[0061]步骤7、根据特征图的重要性对每个卷积和全连接层的剪枝进行筛选,移除该层的卷积核和下一层与之对应的所有输入连接;具体描述如下:
[0062]7.1、确定进化阈值:根据特征图的重要性,设置一个阈值T来确定哪些通道特征图应该被剪枝。这个阈值可以是固定的,或者基于重要性分布的统计度量,例如,保留总重要性的一定百分比;
[0063]7.2、执行进化:对于每个卷积或全连接层,如果某个特征图的重要性Il,k小于阈值T,则将其剪枝。在实践中,这通常意味着移除相关的卷积核或神经元。具体来说,如果剪枝第l层的第k个特征图,则移除该层的第k个卷积核和下一层与之对应的所有输入连接;
[0064]7.3、微调网络:在剪枝后,通常需要对网络进行重新训练或微调,以补偿因剪枝造成的性能损失。这个过程涉及使用原始的训练数据集,但只更新剩余的未剪枝部分的权重。
[0065]对于全连接层来说,全连接层之后通常包含RelU等激活函数层,客户端通过判断激活函数层的激活值大小来决定是否删除该神经元。例如当激活值最小的N个神经元予以删除。
[0066]步骤8、个性化剪枝完毕后,根据接收到的个性化剪枝后的特征图更新客户端;具体描述如下:
[0067]个性化剪枝完毕后,客户端更新接收到的特征图编码,更新方式为,若某个位置的特征图或全连接层神经元被剪枝,则该位置的特征图编码序号更改为0,通过该方式重写特征图编码,记为客户端特征图编码,根据接收到的个性化剪枝后的特征图更新客户端;
[0068]步骤9、客户端将个性化剪枝后的客户端特征图发送给服务器;由于剪枝后的特征图大小比超网特征图参数小很多,客户端的特征图编码是0,1编码,参数量可以忽略不计。因此节省了联邦计算中的参数传递的总传输量;
[0069]步骤10、服务器接收每个客户端的所述个性化剪枝后的客户端特征图,并根据个性化剪枝后的客户端特征图对超网网络模型参数进行参数融合以实现超网网络更新;
[0070]如图3所示,为本发明的个性化剪枝过程示意图;(a)初始状态的超网网络,(b)剪枝后的超网网络;
[0071]具体的,本步骤中所述参数融合的具体过程是根据每个客户端的特征图编码,若该层的特征图编码不为0(如图3(b)所示),说明该位置(通道)特征图权重值有效,因此将该位置特征图权重与一一对应位置的超网模型权重特征值相加后再取平均,如此一一遍历所有位置的特征图权重,完成对超网模型权重的更新。所有客户端的权重都与超网模型权重进行更新。
[0072]步骤11、服务器根据所有客户端的所述个性化剪枝后的客户端特征图来更新全局染色体,更新流程如下:
[0073]编码分析:服务器收集所有客户端的特征图编码,并分析这些编码以确定哪些特征图(或通道)在多数客户端中被保留;
[0074]重要性评估:对于每个特征图或通道,计算其在所有客户端中被保留的频率,以评估其重要性;
[0075]服务器从所有客户端收集每一层的特征图编码。这些编码包含位置信息,表示每个通道是否被保留;
[0076]检验全局剪枝率是否满足训练停止条件;
[0077]若满足条件,则执行步骤S12;输出全局剪枝率,若不满足条件,则返回至子步骤5,继续执行步骤5~步骤11,直至全局染色体训练停止。
[0078]实施例二、
[0079]本发明还进一步包括剪枝率模型个性化训练,过程如下:
[0080]步骤12、服务器进行特征图位置信息统计,具体如下:
[0081]位置信息统计:服务器分析每个客户端上传的特征图编码,确定每个通道(位置)是否被保留;
[0082]编码表示:对于第i个客户端的第l层位置p上的编码表示为Cilp,如果位置p的特征图被保留,则该通道的编号Cilp>0,否则,该通道的编号Cilp=0,表示位置p的特征图不重要,允许进行剪枝;
[0083]步骤13、服务器进行统计通道保留概率:对第l层的每个通道p统计其被保留的概率Plp,表达式如下:
[0084]
[0085]其中,为指示函数,N为客户端的总数,m为通道的编号满足Cilp>0的客户端的个数。
[0086]步骤14、记录概率分布图:对于第i个客户端的第l层,以该层所有通道统计的保留概率为基础,绘制该层所有通道位置保留概率的分布图。
[0087]步骤15、计算如上分布图的均值和方差,如下式所示:
[0088]计算第l层概率分布的均值μl和方差
[0089]
[0090]
[0091]这里,Ml为第l层的通道数;
[0092]步骤16、使用概率分布的均值μl和方差确定第l层的剪枝率Rl,利用剪枝率Rl更新某一层的剪枝率,剪枝率Rl的表达式如下:
[0093]Rl=μl+σl
[0094]其中,σl为方差的平方根。
[0095]步骤17、以剪枝率Rl作为第l层的染色体,指导客户端进行特征图剪枝,服务器依据剪枝结果重组全局染色体,即更新每一层的剪枝率,服务器根据统计的每一层的剪枝率,再次重组染色体,染色体由每一层的剪枝率构成。具体的,服务器为每一层计算一个剪枝率,从而为客户端提供剪枝的指导。
[0096]步骤18、服务器将重组后的全局染色体下发给各客户端,客户端对染色体的值进行判断,若某层染色体值大于当前剪枝率,则继续训练,训练完按照染色体值进行剪枝,若某层染色体值小于当前剪枝率,则添加神经元或特征图后进行训练。
[0097]本方法考虑了不同层和通道的重要性的分布,旨在优化联邦学习中全局模型的个性化剪枝过程。
[0098]综上所述,本发明方法利用本地模型个性化能够显著改善模型性能,同时,有效解决联邦学习中的统计异质性和模型异构性问题。
[0099]本发明的核心优势在于其对联邦学习过程的个性化和效率优化。通过允许每个客户端根据自身的数据特性构建和训练个性化的子网,本框架大大提高了模型对本地数据的拟合能力,从而实现了更高效的个性化学习。此外,通过个性化剪枝减小子网的体积,本框架显著降低了在联邦学习过程中的通信和计算成本。这些优化措施不仅提升了模型的泛化能力和鲁棒性,还使得本框架在资源受限的环境中更具可行性。