百科问答小站 logo
百科问答小站 font logo



机器学习小白来提问:关于联邦学习FedAVG和FedSGD的问题? 第1页

  

user avatar   felix_zlf 网友的相关建议: 
      

参考FedSGD和FedAVG的原始论文《Federated Learning of Deep Networks using Model Averaging》中的一段话:

To apply this approach in the federated setting, we select a C-fraction of clients on each round, and compute the gradient of the loss over all the data held by these clients. Thus, C controls the global batch size, with C = 1 corresponding to full-batch (non-stochastic) gradient descent.2 We refer to this baseline algorithm as FederatedSGD (or FedSGD).

FedSGD:每次采用client的所有数据集进行训练,本地训练次数为1,然后进行aggregation。

C:the fraction of clients that perform computation on each round

每次参与联邦聚合的clients数量占client总数的比例。C=1 代表所有成员参与聚合

B:the local minibatch size used for the client updates.

client的本地的训练的batchsize

E:then number of training passes each client makes over its local dataset on each round

两次联邦训练之间的本地训练的次数

综上所述,C=E=1 ,B=∞时,FedAvg等价于FedSGD,FedSGD是特殊形式的FedAVG,与采用什么优化器没有关系。




  

相关话题

  在CV/NLP/DL领域中,有哪些修改一行代码或者几行代码提升性能的算法? 
  AMD的CPU是否适合搭建深度学习主机? 
  消融实验是什么? 
  什么是迁移学习 (Transfer Learning)?这个领域历史发展前景如何? 
  有什么在线的编程游戏? 
  生成对抗网络的毕设怎么上手? 
  想问下专业人士 OpenCv会被深度学习进一步取代吗进一步取代吗? 
  BERT模型可以使用无监督的方法做文本相似度任务吗? 
  卡尔曼滤波器是如何运用于多传感器融合的? 
  如何评价AWS的图神经网络框架DGL? 

前一个讨论
我对多普勒效应不太理解,大家可以教教我吗?
下一个讨论
K-means聚类算法中的K如何确定?





© 2024-09-19 - tinynew.org. All Rights Reserved.
© 2024-09-19 - tinynew.org. 保留所有权利