当前位置: 首页 > news >正文

网站做优化有几种方式广告传媒公司网站

网站做优化有几种方式,广告传媒公司网站,微商代理,现在淘客做网站还行吗文 | 阿毅两周前#xff0c;南加大Yuchen Lin#xff08;PhD student USC and ex-research intern GoogleAI)所在的团队在Twitter官宣开源首个以研究为导向的联邦学习赋能NLP的FedNLP框架。发布数小时内就获得了647个赞#xff0c;163次转发#xff0c;可见其热度。我相信大… 文 | 阿毅两周前南加大Yuchen LinPhD student USC and ex-research intern GoogleAI)所在的团队在Twitter官宣开源首个以研究为导向的联邦学习赋能NLP的FedNLP框架。发布数小时内就获得了647个赞163次转发可见其热度。我相信大家也是满脑子疑问什么是联邦学习为什么将联邦学习与NLP结合呢那么本篇推文就来给大家讲解一下联邦学习与NLP这两个看似没有关系的研究领域为何可以携手共赴未来新时代。论文题目:FedNLP: A Research Platform for Federated Learning in Natural Language Processing论文链接: https://yuchenlin.xyz/files/fednlp.pdf框架链接https://github.com/FedML-AI/FedNLP为了促进NLP中的联邦学习研究本文开源了以研究为导向的FedNLP框架该框架旨在以联邦学习为基础在NLP中研究数据隐私保护的研究平台。具体来说FedNLP支持NLP中各种流行的任务例如文本分类序列标记对话系统seq2seq生成和语言建模。该框架还实现了Transformer语言模型例如BERT和FL方法例如FedAvgFedOpt等之间的接口以进行语言模型的分布式训练。本文使用FedNLP进行的初步实验表明在分布式和集中式数据集上学习的性能之间存在很大的性能差距这就意味着开发适合NLP任务的FL方法是有趣且令人兴奋的未来研究方向。动机概述许多现实部署的NLP应用程序高度依赖于用户本地数据例如文本消息、文档及其标签问题和选定的答案等这些数据可能存储于个人设备上也可以存储于组织的更大数据孤岛中。根据许多数据隐私法规这些本地数据通常被认为是高度隐私的因此任何人都不能直接访问而这使得很难训练一种高性能模型以使用户受益。联邦学习Federated Learning, FL[1] 作为谷歌2017年提出的一种新兴的隐私保护的分布式机器学习系统通过允许用户即个人设备或组织如手机设备或者医院将其数据保留在本地并与云服务器协作地学习一个共享的全局模型来保护用户的数据隐私从而为社区提供一种新颖而有前途的研究方向FL NLP。简单来说FL应用到NLP领域中是为了开发一些隐私保护、个性化的语言模型。再讲二者如何结合之前小编先简单介绍一下FL系统如下图所示FL系统由一个服务器和个客户端组成其中每个客户端持有一个本地数据集。FL系统的训练步骤分为三个阶段初始化、本地训练、更新聚合具体总结如下阶段1初始化所有参与本轮训练的客户端发送信息给云服务器以表示登记参与联邦学习训练云服务器去除存在网络故障或者网络不佳的客户端。然后云服务器将从所有参与的客户端中随机抽取一定比例(0q1)的客户端参加本轮训练并将预训练或者初始化的全局模型发送给相应的客户端。阶段2本地训练每个客户端收到全局模型作为自己的本地模型(local model)。然后客户端开始使用自己的本地数据集进行训练其中数据集的大小为由训练数据集即输入-输出对组成因此本地训练需要优化的损失函数定义如下其中是指模型的参数是指本地损失函数例如.阶段3更新聚合在联邦学习中更新聚合是指云服务器对客户端上传的模型更新进行聚合操作常见的聚合规则有FedAvg、FedProx等。客户端进行本地训练之后将自己的本地模型更新上传给云服务器云服务器对收到的本地模型更新执行聚合操作得到新的全局模型其定义如下以上过程重复执行直到全局模型收敛结束训练因此联邦学习系统实际上就是一个变型的分布式机器学习训练框架其目的是使得用户数据不上传、不分享。对于联邦学习感兴趣的读者可以阅读以下两篇非常经典的综述[2] Kairouz P, McMahan H B, Avent B, et al. Advances and open problems in federated learning[J]. arXiv preprint arXiv:1912.04977, 2019.[3] Yang Q, Liu Y, Chen T, et al. Federated machine learning: Concept and applications[J]. ACM Transactions on Intelligent Systems and Technology (TIST), 2019, 10(2): 1-19.挑战如下图所示FL的隐私保护特性可以很好地为语言模型训练服务那么两者结合存在哪些技术挑战呢其实挑战在主要是以下四个目前该研究方向因缺乏提供基本构件的标准化平台而受阻基准数据集、NLP模型、FL方法、评估方式等。当前大多数FL平台它们要么专注于统一各种FL方法要么使用计算机视觉模型和数据集进行实验却缺乏将预先训练的语言模型、最流行的NLP和各种任务公式的实际NLP应用联系起来的能力。开发用于FL NLP的全面通用平台的第二个挑战是处理具有不同输入和输出格式的实际NLP应用程序的各种任务表述。由于客户端上的non-IID数据分部是FL系统的主要特征因此如何为现有NLP数据集模拟实际的non-IID分布也是一个挑战。最后一个平台还需要将各种FL方法与基于Transformer的NLP模型集成以用于各种任务类型因此需要一个灵活且可扩展的学习框架。特别是现在需要对Transformers的常规训练器组件进行修改以实现针对通信高效和安全的联邦学习框架。那么针对以上框架南加大团队是如何应当的呢且看下章详解框架概述FedNLP平台由三层组成应用程序层、算法层和基础架构层。在应用程序层FedNLP提供了三个模块数据管理模型定义和用于所有任务格式的单进程训练器在算法层FedNLP支持各种FL算法。在基础架构层FedNLP旨在将单过程训练器与用于FL的分布式学习系统集成在一起 具体来说我们使每个层和模块履行其职责并具有高度的模块化。应用层数据管理。在数据管理中DataManager要做的是控制从加载数据到返回训练函数的整个工作流程。具体来说DataManager设置为读取h5py数据文件并驱动预处理器以将原始数据转换为特征。根据任务定义有四种类型的DataManager。用户可以通过继承DataManager类之一指定数据操作函数并嵌入特定的预处理器来自定义自己的DataManager。模型定义。框架支持两种类型的模型Transformer和LSTM。对于Transformer模型为了与现有的NLP生态对接框架与HuggingFace Transformers库兼容因此可以直接重用各种类型的Transformer而无需重新实现。NLP训练器单进程角度。对于特定于任务的NLP训练器最突出的功能是它不需要用户具有分布式计算的任何背景即FedNLP的用户只需完成单进程代码编写。算法层每个算法包括两个核心对象ServerManager和ClientManager它们集成了基础结构层的通信模块ComManager和训练引擎的Trainer以完成分布式算法协议如FedAvg、FedProx、FedOPT等和分布式训练。请注意用户可以通过将自定义的Trainer传递给算法API来自定义Trainer。基础架构层用户可以编写分布式脚本来管理GPU资源分配。特别是FedNLP提供了GPU分配API以将特定的GPU分配给不同的FL客户端。算法层可以使用统一抽象的ComManager来完成复杂的算法通信协议。当前我们支持MPI消息传递接口RPC远程过程调用和MQTT消息队列遥测传输通信后端。MPI满足单个集群中的分布式训练需求RPC可以满足跨数据中心的通信需求例如跨孤岛联邦学习MQTT可以满足智能手机或物联网设备的通信需求。训练引擎该训练引擎通过作为Trainer类重用现有的深度学习训练引擎。该模块的当前版本基于PyTorch但它可以轻松支持TensorFlow等框架。将来我们可能会考虑在此级别上支持通过编译器技术优化的轻量级边缘训练引擎。仿真结果该团队对FedNLP平台进行了初步分析并在一些常见设置中进行了实验。请注意这些初步实验的目的是展示FedNLP平台的功能同时保留有关未来工作的最新性能开发。数据异构程度与准确性的关系从下图所知在文本分类任务上越小意味着non-IID程度越严重框架的性能越差保持同样的FL方法这说明non-IID问题仍然是FL的瓶颈问题。其次对于不同的non-IID例如label shift和quantity shift两者的性能差异也是很大的。通过这个实验该平台已经为大家提供了两种不同的non-IID设置以及该设置下的baseline因此大家可以设计一些解决NLP领域中non-IID问题的FL方法。FL方法与准确率的关系该团队在保持non-IID程度一致的情况下在不同任务上对不同的FL方法的性能进行了比较。实验结果显示FedOpt的性能是三者中最佳的这也为大家提供该任务上解决non-IID问题初步baseline。但是大家也发现就算是FedOpt离集中式的方法的性能还是差很多的说明还有存在很多的提升空间。应用举例对于FL NLP来说目前落地最多的就是基于FL的键盘下一字预测如[4] Hard A, Rao K, Mathews R, et al. Federated learning for mobile keyboard prediction[J]. arXiv preprint arXiv:1811.03604, 2018.[5] Yang T, Andrew G, Eichner H, et al. Applied federated learning: Improving google keyboard query suggestions[J]. arXiv preprint arXiv:1812.02903, 2018.[6] Ramaswamy S, Mathews R, Rao K, et al. Federated learning for emoji prediction in a mobile keyboard[J]. arXiv preprint arXiv:1906.04329, 2019.FL方法还可以用来训练高质量的语言模型该模型可以胜过未经联邦学习而训练的模型如[7] Shaoxiong Ji, Shirui Pan, Guodong Long, Xue Li, Jing Jiang, and Zi Huang. 2019. Learning private neural language modeling with attentive aggregation. 2019 International Joint Conference on Neural Networks (IJCNN), pages 1–8.[8] Mingqing Chen, Ananda Theertha Suresh, Rajiv Mathews, Adeline Wong, Cyril Allauzen, Françoise Beaufays, and Michael Riley. 2019. Federated learning of n-gram language models. In Proceedings of the 23rd Conference on Computational Natural Language Learning (CoNLL), pages 121–130, Hong Kong, China. Association for Computational Linguistics.除了这些应用之外在医学关系提取和医学名称实体识别也有相关工作[9] Suyu Ge, Fangzhao Wu, Chuhan Wu, Tao Qi, Yongfeng Huang, and X. Xie. 2020. Fedner: Privacy-preserving medical named entity recognition with federated learning. ArXiv, abs/2003.09288.[10] Dianbo Sui, Yubo Chen, Jun Zhao, Yantao Jia, Yuantao Xie, and Weijian Sun. 2020. FedED: Federated learning via ensemble distillation for medical relation extraction. In Proceedings of the 2020 Conference on Empirical Methods in Natural Language Processing (EMNLP), pages 2118–2128, Online. Association for Computational Linguistics.总结基于上述开源框架已有的工作我们可以从FL和NLP两个角度切入来做一些未来的工作NLP开发一些基于FL的新型应用和模型例如在医疗领域、翻译领域等如何将大型语言模型与FL训练结合如何量化语言模型隐私泄露的可能性FL如何设计新的FL方法来解决NLP中的non-IID问题如何设计新的FL训练协议以完美匹配NLP领域的特性如何设计新的边缘训练方法来提高应对大型语言模型需要大量通信的能力如何提高现有FL隐私保护的能力例如在NLP领域防御后门攻击、中毒攻击等萌屋作者阿毅目前在澳洲读PhD方向是Security and Privacy in Machine Learning前腾讯天衍实验室实习生。一个热爱篮球但打球很菜的阳光小伙子也很喜欢爬山。期待和对ML\FL\NLP安全和隐私问题感兴趣的小伙伴一起畅谈未来微信号: Sea_AAo作品推荐我拿模型当朋友模型却想泄漏我的隐私?寻求报道、约稿、文案投放添加微信xixiaoyao-1备注“商务合作”后台回复关键词【入群】加入卖萌屋NLP/IR/Rec与求职讨论群后台回复关键词【顶会】获取ACL、CIKM等各大顶会论文集 [1] McMahan B, Moore E, Ramage D, et al. Communication-efficient learning of deep networks from decentralized data[C]//Artificial Intelligence and Statistics. PMLR, 2017: 1273-1282.[2] Kairouz P, McMahan H B, Avent B, et al. Advances and open problems in federated learning[J]. arXiv preprint arXiv:1912.04977, 2019.[3] Yang Q, Liu Y, Chen T, et al. Federated machine learning: Concept and applications[J]. ACM Transactions on Intelligent Systems and Technology (TIST), 2019, 10(2): 1-19.[4] Hard A, Rao K, Mathews R, et al. Federated learning for mobile keyboard prediction[J]. arXiv preprint arXiv:1811.03604, 2018.[5] Yang T, Andrew G, Eichner H, et al. Applied federated learning: Improving google keyboard query suggestions[J]. arXiv preprint arXiv:1812.02903, 2018.[6] Ramaswamy S, Mathews R, Rao K, et al. Federated learning for emoji prediction in a mobile keyboard[J]. arXiv preprint arXiv:1906.04329, 2019.[7] Shaoxiong Ji, Shirui Pan, Guodong Long, Xue Li, Jing Jiang, and Zi Huang. 2019. Learning private neural language modeling with attentive aggregation. 2019 International Joint Conference on Neural Networks (IJCNN), pages 1–8.[8] Mingqing Chen, Ananda Theertha Suresh, Rajiv Mathews, Adeline Wong, Cyril Allauzen, Françoise Beaufays, and Michael Riley. 2019. Federated learning of n-gram language models. In Proceedings of the 23rd Conference on Computational Natural Language Learning (CoNLL), pages 121–130, Hong Kong, China. Association for Computational Linguistics.[9] Suyu Ge, Fangzhao Wu, Chuhan Wu, Tao Qi, Yongfeng Huang, and X. Xie. 2020. Fedner: Privacy-preserving medical named entity recognition with federated learning. ArXiv, abs/2003.09288.[10] Dianbo Sui, Yubo Chen, Jun Zhao, Yantao Jia, Yuantao Xie, and Weijian Sun. 2020. FedED: Federated learning via ensemble distillation for medical relation extraction. In Proceedings of the 2020 Conference on Empirical Methods in Natural Language Processing (EMNLP), pages 2118–2128, Online. Association for Computational Linguistics.
http://www.huolong8.cn/news/132054/

相关文章:

  • 陶瓷网站模板个人论坛类网站
  • 恩施有做网站的吗网站建设软件下载
  • 网站导航栏修改字体大小wordpress 公园
  • 外围网站怎么做信息系统推广方案
  • 无锡上海网站建设wordpress纯净版下载
  • 网站制作方案费用共享办公室可以注册公司吗
  • 荆州哪个公司做网站wordpress action
  • 教务在线网站开发报告书加强网站建设和信息公开
  • 做直播网站软件有哪些软件强企网做网站
  • 东莞做网站公司有哪些百度文库官网首页
  • 政务公开网站建设要求网站克隆 有后台登录
  • 南宁网站建设哪家公司实力西安网站建设价格低
  • 广西住房城乡建设网站怎么知道这网站是php语言做的
  • 美食网站 原型 html 下载手机移动网站开发
  • 做影视网站引流计算机专业论文 网站建设
  • 中国建设部网站官网罗湖商城网站设计多少钱
  • 莱州 网站制作网站到期查询
  • 广州商务网站建设电话身边的网络营销案例
  • 台州网站建设系统如何设计一个公司的网页
  • 网站的结构是什么样的怎么申请信用卡收款网站接口
  • 容桂网站制作咨询北京网站设计必看刻
  • 建设网站公司 优帮云网站建设需要什么研究条件
  • 网页设计与网站建设考试题目东莞网站建设 牛魔网
  • 做网站卖仿品温州房产信息网
  • 网站模板 htmlwordpress comments.php
  • 网站同步更新到新浪微博电商网站商品页的优化目标是什么
  • 个体户经营范围网站建设网站建设全程揭秘pdf
  • 网站建设公司电话网站建设和维护待遇
  • 长春网站上排名渭南建设厅官网
  • asp网站开发人员招聘广州 网站设计公司排名