当前位置: 首页 > news >正文

娄底市网站建设制作申请网站域名多少钱

娄底市网站建设制作,申请网站域名多少钱,贵阳网站建设方案维护,哪里有做手机壳的的1 高层中间代码 为了克服传统编译器中采用的IR限制DL模型中复杂计算的表达的局限性#xff0c;现有的DL编译器利用高层IR#xff08;称为图IR#xff09;进行高效的代码优化设计。 1.1 图表示 基于DAG的IR#xff1a;基于DAG的IR是编译器构建计算图的最传统方法之一现有的DL编译器利用高层IR称为图IR进行高效的代码优化设计。 1.1 图表示 基于DAG的IR基于DAG的IR是编译器构建计算图的最传统方法之一它将节点和边组织为有向无环图DAG。在DL编译器中DAG的节点表示原子DL运算符卷积、池等边表示张量。该图是无环图这与泛型编译器的数据依赖图DDG不同。借助于DAG计算图DL编译器可以分析各种操作符之间的关系和依赖关系并用它们来指导优化。在DDG上已经有很多优化比如公共子表达式消除CSE和死代码消除DCE。通过将DL的领域知识与这些算法相结合可以对DAG计算图进行进一步的优化。 1.2 图IR的实现 数据表示DL编译器中的数据例如输入、权重和中间数据通常以张量的形式组织张量也称为多维数组。DL编译器可以通过内存指针直接表示张量数据也可以通过占位符以更灵活的方式表示张量数据。占位符包含张量的每个维度的大小。 占位符Placeholder占位符广泛应用于符号编程。占位符只是一个具有明确形状信息例如每个维度中的大小的变量它将在计算的后期用值填充。它允许程序员在不考虑精确数据元素的情况下描述操作和构建计算图这有助于在DL编译器中将计算定义和精确执行分离开来。 动态维度表示在声明占位符时通常支持未知维度大小。例如TVM使用Any表示未知维度例如Tensor〈(Any3), fp32〉)XLA使用None实现相同的目的例如T f.placeholder(“float”, [None3])。未知形状表示是支持动态模型的必要条件但是要完全支持动态模型边界推理和维度检查应该放松。 数据布局数据布局描述了张量在内存中的组织方式通常是从逻辑索引到内存索引的映射。数据布局通常包括尺寸顺序如NCHW和NHWC、tiling、padding、striding等。TVM和Glow将数据布局表示为运算符参数并需要此类信息进行计算和优化。Relay和MLIR将把数据布局信息添加到他们的张量类型系统中。 算子支持算子对应计算图中的节点深度学习编译器支持的算子表示对应的深度学习工作。 2 底层中间代码 底层IR以比高层IR更细粒度的表示形式描述DL模型的计算它通过提供接口来调整计算和内存访问从而实现与目标相关的优化。在本节中我们将底层IRs的常见实现分为三类基于Halide的IR、基于polyhedral的IR和其他IR。 2.1 底层IR 基于Halide的IRHalide的基本原理是计算和调度的分离。采用Halide的编译器没有直接给出具体的方案而是尝试各种可能的时间表并选择最佳的。Halide不能用复杂的图案例如非矩形来表示计算但是DL中的计算非常规则可以用Halide完美地表示。当应用到DL编译器的后端时Halide的原始IR需要修改。例如Halide的输入形状是无限的而DL编译器需要知道数据的确切形状以便将运算符映射到硬件指令。TVM将Halide IR改进为符号IR它消除了对LLVM的依赖重构了项目模块的结构和Halide的IR设计追求更好的组织以及对graph-IR和前端语言如Python的可访问性。通过实现运行时调度机制方便地添加自定义操作符提高了可重用性。 基于Polyhedral的IRPolyhedral模型是DL编译器采用的一种重要技术。它使用线性规划、仿射变换和其他数学方法来优化具有边界和分支静态控制流的基于循环的代码。与Halide不同的是内存引用和循环嵌套的边界可以是多面体模型中任何形状的多面体。由于能够处理深度嵌套的循环许多DL编译器如TC和PlaidML作为nGraph的后端都采用了Polyhedral模型作为其底层IR。基于Polyhedral的IR使得应用各种多面体变换例如fusing、tiling、sinking和mapping变得容易包括依赖于设备和独立于设备的优化。 其它的IR有DL编译器实现定制的底层IR没有使用Halide和Polyhedral模型。如MLIR受LLVM的影响很大它是一个比LLVM更纯粹的编译器基础结构。MLIR重用了LLVM中的许多思想和接口介于模型表示和代码生成之间。MLIR有一个灵活的类型系统允许多个抽象层次它引入方言来表示这些多个抽象层次。每个方言都由一组定义的不可变操作组成。此外MLIR可以创建新的方言来连接到新的低级编译器这为硬件开发人员和编译器研究人员铺平了道路。 2.2 基于底层IR的代码生成 大多数DL编译器采用的底层IR最终可以降低到LLVM IR并受益于LLVM成熟的优化器和代码生成器。此外LLVM可以从零开始显式地为专用加速器设计定制指令集。然而传统的编译器在直接传递给LLVM_IR时可能会生成糟糕的代码。为了避免这种情况DL编译器采用了两种方法来实现硬件相关的优化1在LLVM的上层IR例如基于Halide的IR和基于Polyhedral的IR中执行特定于目标的循环变换2为优化过程提供有关硬件目标的附加信息。大多数DL编译器都应用这两种方法但重点不同。一般来说倾向于前端用户如TC、TVM、XLA和nGraph的DL编译器可能关注1而更倾向于后端开发人员如Glow、PlaidML和MLIR的DL编译器可能关注2。 3 前端优化 在构建计算图之后前端应用图级优化。许多优化更容易在图级别识别和执行因为图提供了计算的全局视图。这些优化只应用于计算图而不是后端的实现。因此它们独立于硬件可以应用于各种后端目标。前端优化可以分为三类1节点优化、2块优化和3数据全局优化。 3.1 节点优化 计算图的节点非常粗糙可以在单个节点内进行优化。节点级优化包括消除不必要节点的节点消除和用其他低成本节点替换节点。在通用编译器中Nop消除删除了占用少量空间但不指定任何操作的nop指令。在DL编译器中Nop消除负责消除缺乏足够输入的操作。例如可以消除只有一个输入张量的和节点消除填充宽度为零的填充节点。零维张量消除负责消除输入为零维张量的不必要运算。 3.2 块优化 代数化简包括1代数识别2强度折减我们可以用更简便的运算符替换更复杂的运算符3常数折叠我们可以用它们的值替换常数表达式。这种优化考虑了一个节点序列然后利用不同类型节点的交换性、结合性和分布性来简化计算。除了典型的运算符、×等代数简化还可以应用于特定于DL的运算符例如整形、转置和池。这些操作符可以重新排序有时甚至可以消除这减少了冗余提高了效率。代数简化可以应用的常见情况1计算顺序的优化。以矩阵乘法GEMM为例存在两个矩阵例如A和B两个矩阵被转置分别产生AT和BT然后AT和BT被相乘在一起。然而一种更有效的实现GEMM的方法是将参数a和B的顺序进行切换相乘然后对GEMM的输出进行转置从而将两个转置减少为一个2优化节点组合在这种情况下将多个连续的转置节点组合成一个节点。 算子融合DL编译器中不可缺少的优化。它能够更好地共享计算消除中间分配通过组合循环嵌套促进进一步优化并减少启动和同步开销。 运算符下沉优化将诸如转置之类的操作下沉到诸如批处理规范化、ReLU、sigmoid和channel shuffle之类的操作之下。通过这种优化许多相似的操作被移近彼此为代数简化创造了更多的机会。 3.3数据优化 公共子表达式消除CSE如果先前计算了E的值则表达式E是公共子表达式并且自先前计算以来E的值不必更改。在这种情况下E的值被计算一次并且已经计算的E的值可以用于避免在其他地方重新计算。 死代码消除DCE如果不使用计算结果则一组代码是死的。DCE优化去除了死代码。死代码通常不是由程序员引起的而是由其他图形优化引起的。因此DCE和CSE是在其他图优化之后应用的。其他的优化比如死存储消除DSE它将存储移到永远不会使用的张量中也属于DCE。 静态内存规划划优化尽可能地重用内存缓冲区。通常有两种方法就地内存共享和标准内存共享。就地内存共享将相同的内存用于操作的输入和输出并且在计算之前只分配一个内存副本。标准内存共享重用以前操作的内存而不重叠。静态内存规划是离线完成的这允许应用更复杂的规划算法。 布局变换试图找到最佳的数据布局以便在计算图中存储张量然后将布局变换节点插入到图中。注意这里不执行实际的转换而是在编译器后端计算计算图时执行。事实上相同的操作在不同的数据布局中的性能是不同的并且最佳的布局在不同的硬件上也是不同的。例如GPU上NCHW格式的操作通常运行得更快因此在GPU上转换为NCHW格式例如TensorFlow是有效的。 4 后端优化 DL编译器的后端通常包括各种特定于硬件的优化、自动调优技术。特定于硬件的优化可以为不同的硬件目标高效地生成代码。然而自动调优在编译器后端是必不可少的它可以减轻人工获取最佳参数配置的工作量本文主要涉及特定于硬件的优化技术。 特定于硬件的优化也称为目标相关优化用于获得针对特定硬件的高性能代码。应用后端优化的一种方法是将底层IR转换为LLVM IR利用LLVM基础结构生成优化的CPU/GPU代码。另一种方法是利用DL领域知识设计定制的优化从而更有效地利用目标硬件。 硬件内部映射可以将某组低级IR指令转换为已经在硬件上高度优化的内核。在TVM中硬件内部映射是用可扩展张量化的方法来实现的它可以声明硬件内部映射的行为和内部映射的降低规则。此方法使编译器后端能够将硬件实现以及高度优化的手工微内核应用于特定的操作模式从而显著提高性能。Glow支持硬件内部映射如量化。 内存分配和获取代码生成中的另一个挑战特别是对于GPU和定制加速器。例如GPU主要包含共享内存空间较低的访问延迟和有限的内存大小和本地内存空间较高的访问延迟和较大的容量。这种内存层次结构需要有效的内存分配和获取技术来改善数据的局部性。为了实现这种优化TVM引入了内存范围的调度概念。内存范围调度原语可以将计算阶段标记为共享或线程本地。 内存延迟隐藏通过重新排序执行管道在后端使用。由于大多数DL编译器都支持CPU和GPU上的并行化因此内存延迟隐藏可以自然地通过硬件实现例如GPU上的warp上下文切换。为了获得更好的性能和减少编程负担TVM引入了虚拟线程调度原语使用户可以在虚拟化的多线程体系结构上指定数据并行性。 面向循环的优化由于Halide和LLVM与多面体方法集成已经结合了这样的优化技术一些DL编译器在其后端使用Halide和LLVM。面向循环优化的关键技术包括循环融合、滑动窗口、分块、循环重排序和循环展开。 循环融合循环融合是一种循环优化技术可以融合具有相同边界的循环以实现更好的数据重用。 滑动窗口滑动窗口是Halide采用的一种循环优化技术。它的核心概念是在需要时计算值并动态存储它们以供数据重用直到不再需要它们为止。由于滑动窗口将两个循环的计算交织在一起并使它们串行化这是并行性和数据重用之间的一种折衷。 分块循环拆分为多个块因此循环分为通过分块迭代的外部循环和在分块中迭代的内部循环。 循环重新排序循环重新排序也称为循环置换改变嵌套循环中的迭代顺序从而优化内存访问从而增加空间局部性。它特定于数据布局和硬件功能。 循环展开循环展开可以将特定的循环展开为循环体的固定数量的副本这允许编译器应用严格的指令级并行性。通常循环展开与循环拆分结合使用循环拆分首先将循环拆分为两个嵌套循环然后完全展开内部循环。 并行化由于现代处理器通常支持多线程和SIMD并行编译器后端需要利用并行性来最大限度地提高硬件利用率以获得高性能。
http://www.huolong8.cn/news/195225/

相关文章:

  • 网站移动端是什么问题小型购物网站开发
  • 湖南新能源公司中企动力网站建设html可视化布局工具
  • 国家工程建设标准化协会网站深圳宝安区医院
  • 网站开发 网页设计北京师范大学出版社菏泽建设公司网站
  • 网站分站程序wordpress支持php7
  • 网站模板 源码之家网络营销网站建设存在问题
  • 网站设计济南淘特app推广代理
  • 徐州模板建站哪家好关于美丽乡村建设的活动和网站
  • 中山网站制朝阳专业网站建设
  • 公司制作网站需要企业局域网的搭建与配置
  • 官方设计方案做seo 教你如何选择网站关键词
  • 适合美工的设计网站做网站1500全包
  • 无锡本地网站百度关键词分析工具
  • 可以免费做会计题的网站公司设计图片
  • 百度权重站长工具织梦网站版权
  • 四川高端网站建设wordpress 用户等级
  • 成都电子网站建设多少钱wordpress手机投放广告
  • 校园论坛网站建设论文汕头网站建设推广费用
  • yii2 网站开发营销策略包括哪些方面
  • 用来做微网站的二手车 网站程序
  • 沈阳网站公司哪个好新网店怎么免费推广
  • php网站如何做特效南昌响应式网站建设
  • 厦门微信网站开发wordpress文章微信分享
  • 傻瓜式php网站开发工具清远市清城区网站建设公司
  • 店面门头设计网站友情链接怎么添加
  • 桂林网站建设兼职深圳市做网站设计
  • 网站建设中 html5 模板帝国cms影视网站模板
  • discuz图片网站模板网站建设移动端
  • 做的很好的画册网站微网站搭建平台
  • 网站建设项目价格织梦网站密码忘记