请问有哪些将LM或LLM与联邦学习相结合的工作? #30
Replies: 4 comments 4 replies
-
@youngfish42 曾经在24年1月做过一项调研,如下是查到的相关论文清单。先抛砖引玉一下~
其中,有代码的论文如下
|
Beta Was this translation helpful? Give feedback.
-
另附上海交通大学团队 @rui-ye 的工作,如下是他们的宣传语 "OpenFedLLM: Training Large Language Models on Decentralized Private Data via Federated Learning"。我们在这个工作里提供了一个联邦学习(FL)训练大语言模型(LLM)的代码框架OpenFedLLM(代码简单,科研友好),并基于这个框架进行了一系列实验研究(单张3090八小时内可完成训练!),最后指出了一系列这个新场景下的新研究方向。 这个代码框架里有什么?
这个paper里有什么?
文章链接:https://arxiv.org/abs/2402.06954 |
Beta Was this translation helpful? Give feedback.
-
我们去年写了一个survey叫做Grounding Foundation Models through Federated Transfer Learning: A General Framework,https://arxiv.org/abs/2311.17431。 从知识迁移的角度对LM和FL结合的工作梳理了下。 |
Beta Was this translation helpful? Give feedback.
-
关于联邦学习和大模型结合的轻量化以及PEFT微调方法有一篇survey,A Survey on Efficient Federated Learning Methods for Foundation Model Training,https://arxiv.org/abs/2401.04472 |
Beta Was this translation helpful? Give feedback.
-
求推荐相关的论文列表,清单和代码,欢迎讨论
也欢迎分享和介绍相关的优秀论文和项目~
Beta Was this translation helpful? Give feedback.
All reactions