当前位置: 首页 > news >正文

白种女人做爰网站wordpress上传更新

白种女人做爰网站,wordpress上传更新,百度喜欢什么样的网站,开发定制软件公司2023年全国职业院校技能大赛 赛题第04套 赛项名称#xff1a; 大数据应用开发 英文名称#xff1a; Big Data Application Development 赛项组别#xff1a; 高等职业教育组 赛项编号#xff1a; GZ033 … 2023年全国职业院校技能大赛 赛题第04套 赛项名称         大数据应用开发          英文名称  Big Data Application Development  赛项组别         高等职业教育组                 赛项编号              GZ033              背景描述 工业互联网是工业全要素、全产业链、全价值链的全面连接是人、机、物、工厂互联互通的新型工业生产制造服务体系是互联网从消费领域向生产领域、从虚拟经济向实体经济拓展的核心载体是建设现代化经济体系、实现高质量发展和塑造全球产业竞争力的关键支撑工业大数据则是工业互联网实现工业要素互联之后的核心价值创造者随着大数据行业的发展,工业数据收集呈现时间维度不断延长、数据范围不断扩大、数据粒度不断细化的趋势以上三个维度的变化使得企业所积累的数据量以加速度的方式在增加,最终构成了工业大数据的集合 为完成工业大数据分析工作你所在的小组将应用大数据技术以Scala作为整个项目的基础开发语言基于大数据平台综合利用 Hudi、Spark、Flink、Vue.js等技术对数据进行处理、分析及可视化呈现你们作为该小组的技术人员请按照下面任务完成本次工作。 任务A大数据平台搭建容器环境15分 环境说明 服务端登录地址详见各任务服务端说明。 补充说明宿主机及各容器节点可通过Asbru工具或SSH客户端进行SSH访问。 子任务一Hadoop 完全分布式安装配置 本任务需要使用root用户完成相关配置安装Hadoop需要配置前置环境。命令中要求使用绝对路径具体要求如下: 从宿主机/opt目录下将文件hadoop-3.1.3.tar.gz、jdk-8u212-linux-x64.tar.gz复制到容器Master中的/opt/software路径中若路径不存在则需新建将Master节点JDK安装包解压到/opt/module路径中(若路径不存在则需新建)将JDK解压命令复制并粘贴至客户端桌面【Release\任务A提交结果.docx】中对应的任务序号下修改容器中/etc/profile文件设置JDK环境变量并使其生效配置完毕后在Master节点分别执行“java -version”和“javac”命令将命令行执行结果分别截图并粘贴至客户端桌面【Release\任务A提交结果.docx】中对应的任务序号下请完成host相关配置将三个节点分别命名为master、slave1、slave2并做免密登录用scp命令并使用绝对路径从Master复制JDK解压后的安装文件到slave1、slave2节点若路径不存在则需新建并配置slave1、slave2相关环境变量将全部scp复制JDK的命令复制并粘贴至客户端桌面【Release\任务A提交结果.docx】中对应的任务序号下在Master将Hadoop解压到/opt/module(若路径不存在则需新建)目录下并将解压包分发至slave1、slave2中其中master、slave1、slave2节点均作为datanode配置好相关环境初始化Hadoop环境namenode将初始化命令及初始化结果截图截取初始化结果日志最后20行即可粘贴至客户端桌面【Release\任务A提交结果.docx】中对应的任务序号下启动Hadoop集群包括hdfs和yarn使用jps命令查看Master节点与slave1节点的Java进程将jps命令与结果截图粘贴至客户端桌面【Release\任务A提交结果.docx】中对应的任务序号下。 子任务二Spark on Yarn安装配置 本任务需要使用root用户完成相关配置已安装Hadoop及需要配置前置环境具体要求如下 从宿主机/opt目录下将文件spark-3.1.1-bin-hadoop3.2.tgz复制到容器Master中的/opt/software若路径不存在则需新建中将Spark包解压到/opt/module路径中(若路径不存在则需新建)将完整解压命令复制粘贴至客户端桌面【Release\任务A提交结果.docx】中对应的任务序号下修改容器中/etc/profile文件设置Spark环境变量并使环境变量生效在/opt目录下运行命令spark-submit --version将命令与结果截图粘贴至客户端桌面【Release\任务A提交结果.docx】中对应的任务序号下完成on yarn相关配置使用spark on yarn 的模式提交$SPARK_HOME/examples/jars/spark-examples_2.12-3.1.1.jar 运行的主类为org.apache.spark.examples.SparkPi将运行结果截图粘贴至客户端桌面【Release\任务A提交结果.docx】中对应的任务序号下截取Pi结果的前后各5行。 运行命令为spark-submit --master yarn --class org.apache.spark.examples.SparkPi  $SPARK_HOME/examples/jars/spark-examples_2.12-3.1.1.jar 子任务三Hudi安装配置 本任务需要使用root用户完成相关配置具体要求如下 从宿主机/opt目录下将maven相关安装包复制到容器Master中的/opt/software若路径不存在则需新建中将maven相关安装包解压到/opt/module/目录下若路径不存在则需新建并配置maven本地库为/opt/software/RepMaven/远程仓库使用阿里云镜像配置maven的环境变量并在/opt/下执行mvn -v将运行结果截图粘贴至客户端桌面【Release\任务A提交结果.docx】中对应的任务序号下 mirror idnexus-aliyun/id mirrorOfcentral/mirrorOf nameNexus aliyun/name urlhttp://maven.aliyun.com/nexus/content/groups/public/url /mirror 从宿主机/opt目录下将Hudi相关安装包复制到容器Master中的/opt/software若路径不存在则需新建中将Hudi相关安装包解压到/opt/module/目录下若路径不存在则需新建将命令复制并粘贴至客户端桌面【Release\任务A提交结果.docx】中对应的任务序号下完成解压安装及配置后使用maven对Hudi进行构建spark3.1,scala-2.12编译完成后与Spark集成集成后使用spark-shell操作Hudi将spark-shell启动使用spark-shell运行下面给到的案例并将最终查询结果截图粘贴至客户端桌面【Release\任务A提交结果.docx】中对应的任务序号下。 提示编译需要替换以下内容 1.将父模块pom.xml替换 2.hudi-common/src/main/java/org/apache/hudi/common/table/log/block/HoodieParquetDataBlock.java替换 将packaging/hudi-spark-bundle/pom.xml替换 3.将packaging/hudi-utilities-bundle/pom.xml替换 import org.apache.hudi.QuickstartUtils._ import scala.collection.JavaConversions._ import org.apache.spark.sql.SaveMode._ import org.apache.hudi.DataSourceReadOptions._ import org.apache.hudi.DataSourceWriteOptions._ import org.apache.hudi.config.HoodieWriteConfig._ import org.apache.hudi.common.model.HoodieRecord val tableName hudi_trips_cow val basePath file:///tmp/hudi_trips_cow val dataGen new DataGenerator val inserts convertToStringList(dataGen.generateInserts(10)) val df spark.read.json(spark.sparkContext.parallelize(inserts, 2)) df.write.format(hudi). options(getQuickstartWriteConfigs). option(PRECOMBINE_FIELD_OPT_KEY, ts). option(RECORDKEY_FIELD_OPT_KEY, uuid). option(PARTITIONPATH_FIELD_OPT_KEY, partitionpath). option(TABLE_NAME, tableName). mode(Overwrite). save(basePath) val tripsSnapshotDF spark.read.format(hudi).load(basePath /*/*/*/*) tripsSnapshotDF.createOrReplaceTempView(hudi_trips_snapshot) spark.sql(select fare, begin_lon, begin_lat, ts from  hudi_trips_snapshot where fare 20.0).show() 任务B离线数据处理25分 环境说明 服务端登录地址详见各任务服务端说明。 补充说明各节点可通过Asbru工具或SSH客户端进行SSH访问 主节点MySQL数据库用户名/密码root/123456已配置远程连接 Spark任务在Yarn上用Client运行方便观察日志。 子任务一数据抽取 编写Scala代码使用Spark将MySQL库中表ChangeRecordBaseMachineMachineData ProduceRecord全量抽取到Hudi的hudi_gy_ods库路径为/user/hive/warehouse/hudi_gy_ods.db中对应表changerecordbasemachine machinedataproducerecord中。 抽取MySQL的shtd_industry库中ChangeRecord表的全量数据进入Hudi的hudi_gy_ods库中表changerecord字段排序、类型不变分区字段为etldate类型为String且值为当前比赛日的前一天日期分区字段格式为yyyyMMdd。PRECOMBINE_FIELD使用ChangeEndTimeChangeID和ChangeMachineID作为联合主键。使用spark-sql的cli执行select count* from hudi_gy_ods.changerecord命令将spark-sql的cli执行结果分别截图粘贴至客户端桌面【Release\任务B提交结果.docx】中对应的任务序号下抽取MySQL的shtd_industry库中BaseMachine表的全量数据进入Hudi的hudi_gy_ods库中表basemachine字段排序、类型不变分区字段为etldate类型为String且值为当前比赛日的前一天日期分区字段格式为yyyyMMdd。PRECOMBINE_FIELD使用MachineAddDateBaseMachineID为主键。使用spark-sql的cli执行show partitions hudi_gy_ods.basemachine命令将cli的执行结果分别截图粘贴至客户端桌面【Release\任务B提交结果.docx】中对应的任务序号下抽取MySQL的shtd_industry库中ProduceRecord表的全量数据进入Hudi的hudi_gy_ods库中表producerecord剔除ProducePrgCode字段其余字段排序、类型不变分区字段为etldate类型为String且值为当前比赛日的前一天日期分区字段格式为yyyyMMdd。PRECOMBINE_FIELD使用ProduceCodeEndTimeProduceRecordID和ProduceMachineID为联合主键。使用spark-sql的cli执行show partitions hudi_gy_ods.producerecord命令将spark-sql的cli的执行结果分别截图粘贴至客户端桌面【Release\任务B提交结果.docx】中对应的任务序号下抽取MySQL的shtd_industry库中MachineData表的全量数据进入Hudi的hudi_gy_ods库中表machinedata字段排序、类型不变分区字段为etldate类型为String且值为当前比赛日的前一天日期分区字段格式为yyyyMMdd。PRECOMBINE_FIELD使用MachineRecordDateMachineRecordID为主键。使用spark-sql的cli执行show partitions hudi_gy_ods.machinedata命令将cli的执行结果分别截图粘贴至客户端桌面【Release\任务B提交结果.docx】中对应的任务序号下。 子任务二数据清洗 编写Scala代码使用Spark将hudi_gy_ods库中相应表数据全量抽取到Hudi的hudi_gy_dwd库路径为/user/hive/warehouse/hudi_gy_dwd.db中对应表中。表中有涉及到timestamp类型的均要求按照yyyy-MM-dd HH:mm:ss不记录毫秒数若原数据中只有年月日则在时分秒的位置添加00:00:00添加之后使其符合yyyy-MM-dd HH:mm:ss。 抽取hudi_gy_ods库中changerecord的全量数据进入Hudi的hudi_gy_dwd库中表fact_change_record分区字段为etldate且值与hudi_gy_ods库的相对应表该值相等并添加dwd_insert_user、dwd_insert_time、dwd_modify_user、dwd_modify_time四列,其中dwd_insert_user、dwd_modify_user均填写“user1”dwd_insert_time、dwd_modify_time均填写当前操作时间并进行数据类型转换。dwd_modify_time作为preCombineFieldchange_id和change_machine_id作为联合primaryKey。使用spark-sql的cli按照change_machine_id、change_id均为降序排序查询前1条数据将结果截图粘贴至客户端桌面【Release\任务B提交结果.docx】中对应的任务序号下抽取hudi_gy_ods库中basemachine的全量数据进入Hudi的hudi_gy_dwd库中表dim_machine。分区字段为etldate且值与hudi_gy_ods库的相对应表该值相等并添加dwd_insert_user、dwd_insert_time、dwd_modify_user、dwd_modify_time四列,其中dwd_insert_user、dwd_modify_user均填写“user1”dwd_insert_time、dwd_modify_time均填写当前操作时间并进行数据类型转换。dwd_modify_time作为preCombineFieldBase_machine_id作为primaryKey。使用spark-sql的cli按照Base_machine_id升序排序查询dim_machine前2条数据将结果截图粘贴至客户端桌面【Release\任务B提交结果.docx】中对应的任务序号下抽取hudi_gy_ods库中producerecord的全量数据进入Hudi的hudi_gy_dwd库中表fact_produce_record,分区字段为etldate且值与hudi_gy_ods库的相对应表该值相等并添加dwd_insert_user、dwd_insert_time、dwd_modify_user、dwd_modify_time四列,其中dwd_insert_user、dwd_modify_user均填写“user1”dwd_insert_time、dwd_modify_time均填写当前操作时间并进行数据类型转换。dwd_modify_time作为preCombineFieldproduce_record_id和produce_machine_id作为联合primaryKey。使用spark-sql的cli按照produce_machine_id、produce_record_id均为升序排序查询fact_produce_record前1条数据将结果截图粘贴至客户端桌面【Release\任务B提交结果.docx】中对应的任务序号下抽取hudi_gy_ods库中machinedata的全量数据进入Hudi的hudi_gy_dwd库中表fact_machine_data。分区字段为etldate且值与hudi_gy_ods库的相对应表该值相等并添加dwd_insert_user、dwd_insert_time、dwd_modify_user、dwd_modify_time四列,其中dwd_insert_user、dwd_modify_user均填写“user1”dwd_insert_time、dwd_modify_time均填写当前操作时间并进行数据类型转换。dwd_modify_time作为preCombineFieldmachine_record_id作为primaryKey。使用spark-sql的cli按照machine_id、machine_record_id均为降序排序查询前1条数据将结果截图粘贴至客户端桌面【Release\任务B提交结果.docx】中对应的任务序号下。 子任务三指标计算 本任务基于以下2、3、4小题完成使用DolphinScheduler完成第2、3、4题任务代码的调度。工作流要求使用shell输出“开始”作为工作流的第一个jobjob12、3、4题任务为并行任务且它们依赖job1的完成命名为job2、job3、job4job2、job3、job4完成之后使用shell输出“结束”作为工作流的最后一个jobendjobendjob依赖job2、job3、job4并将最终任务调度完成后的工作流截图将截图粘贴至客户端桌面【Release\任务B提交结果.docx】中对应的任务序号下 编写Scala代码使用Spark根据hudi_gy_dwd层的fact_change_record表统计每个月change_start_time的月份、每个设备、每种状态的时长若某状态当前未结束即change_end_time值为空则该状态不参与计算。计算结果存入ClickHouse数据库shtd_industry的machine_state_time表中表结构如下然后在Linux的ClickHouse命令行中根据设备id、状态持续时长均为降序排序查询出前10条将SQL语句复制粘贴至客户端桌面【Release\任务B提交结果.docx】中对应的任务序号下将执行结果截图粘贴至客户端桌面【Release\任务B提交结果.docx】中对应的任务序号下; 字段 类型 中文含义 备注 machine_id int 设备id change_record_state varchar 状态 duration_time varchar 持续时长秒 当月该状态的时长和 year int 年 状态产生的年 month int 月 状态产生的月 编写Scala代码使用Spark根据hudi_gy_dwd层的fact_change_record表关联dim_machine表统计每个车间中所有设备运行时长即设备状态为“运行”的中位数在哪个设备为偶数时两条数据原样保留输出若某个设备运行状态当前未结束即change_end_time值为空则该状态不参与计算计算结果存入ClickHouse数据库shtd_industry的machine_running_median表中表结构如下然后在Linux的ClickHouse命令行中根据所属车间、设备id均为降序排序查询出前5条数据将SQL语句复制粘贴至客户端桌面【Release\任务B提交结果.docx】中对应的任务序号下将执行结果截图粘贴至客户端桌面【Release\任务B提交结果.docx】中对应的任务序号下; 字段 类型 中文含义 备注 machine_id int 设备id machine_factory int 所属车间 total_running_time int 运行总时长 结果以秒为单位 编写Scala代码使用Spark根据hudi_gy_dwd层的fact_produce_record表基于全量历史数据计算各设备生产一个产品的平均耗时produce_code_end_time值为1900-01-01 00:00:00的数据为脏数据需要剔除注fact_produce_record表中一条数据代表加工一个产品produce_code_start_time字段为开始加工时间produce_code_end_time字段为完成加工时间将设备每个产品的耗时与该设备平均耗时作比较保留耗时高于平均值的产品数据将得到的数据写入ClickHouse数据库shtd_industry的machine_produce_per_avgtime表中表结构如下然后在Linux的ClickHouse命令行中根据设备id降序排序查询前3条数据将SQL语句复制粘贴至客户端桌面【Release\任务B提交结果.docx】中对应的任务序号下将执行结果截图粘贴至客户端桌面【Release\任务B提交结果.docx】中对应的任务序号下 machine_produce_per_avgtime 字段 类型 中文含义 备注 produce_record_id int 生产记录id 每生产一件产品产生一条数据 produce_machine_id int 设备id producetime int 该产品耗时 produce_per_avgtime int 设备生产一个产品平均耗时 单位秒 任务C数据挖掘10分 环境说明 服务端登录地址详见各任务服务端说明。 补充说明各节点可通过Asbru工具或SSH客户端进行SSH访问 主节点MySQL数据库用户名/密码root/123456已配置远程连接 Spark任务在Yarn上用Client运行方便观察日志。 该任务均使用Scala编写利用Spark相关库完成。 子任务一特征工程 根据hudi_gy_dwd库中fact_machine_data表或MySQL的shtd_industry库中MachineData表根据以下要求转换获取最大分区MySQL不用考虑的数据后首先解析列machine_record_dataMySQL中为MachineRecordData的数据数据格式为xml采用dom4j解析解析demo在客户端/home/ubuntu/Documents目录下并获取每条数据的主轴转速主轴倍率主轴负载进给倍率进给速度PMC程序号循环时间运行时间有效轴数总加工个数已使用内存未使用内存可用程序量注册程序量等相关的值若该条数据没有相关值则按下表设置默认值同时转换machine_record_state字段的值若值为报警则填写1否则填写0以下为表结构将数据保存在Hive的dwd.fact_machine_learning_data使用cli按照machine_record_id升序排序查询dwd.fact_machine_learning_data前1条数据将结果截图粘贴至客户端桌面【Release\任务C提交结果.docx】中对应的任务序号下。 dwd.fact_machine_learning_data表结构 字段 类型 中文含义 备注 machine_record_id int 主键 machine_id double 设备id machine_record_state double 设备状态 默认0.0 machine_record_mainshaft_speed double 主轴转速 默认0.0 machine_record_mainshaft_multiplerate double 主轴倍率 默认0.0 machine_record_mainshaft_load double 主轴负载 默认0.0 machine_record_feed_speed double 进给倍率 默认0.0 machine_record_feed_multiplerate double 进给速度 默认0.0 machine_record_pmc_code double PMC程序号 默认0.0 machine_record_circle_time double 循环时间 默认0.0 machine_record_run_time double 运行时间 默认0.0 machine_record_effective_shaft double 有效轴数 默认0.0 machine_record_amount_process double 总加工个数 默认0.0 machine_record_use_memory double 已使用内存 默认0.0 machine_record_free_memory double 未使用内存 默认0.0 machine_record_amount_use_code double 可用程序量 默认0.0 machine_record_amount_free_code double 注册程序量 默认0.0 machine_record_date timestamp 记录日期 dwd_insert_user string dwd_insert_time timestamp dwd_modify_user string dwd_modify_time timestamp 子任务二报警预测 根据子任务一的结果建立随机森林随机森林相关参数可自定义不做限制使用子任务一的结果训练随机森林模型然后再将dwd.fact_machine_learning_data_test该表字段含义与dwd.fact_machine_learning_data表相同machine_record_state列值为空表结构自行查看转成向量预测其是否报警将结果输出到MySQL数据库shtd_industry中的ml_result表中表结构如下。在Linux的MySQL命令行中查询出machine_record_id为1、8、20、28和36的5条数据将SQL语句复制并粘贴至客户端桌面【Release\任务C提交结果.docx】中对应的任务序号下将执行结果截图粘贴至客户端桌面【Release\任务C提交结果.docx】中对应的任务序号下。 ml_result表结构 字段 类型 中文含义 备注 machine_record_id int 主键 machine_record_state double 设备状态 报警为1其他状态则为0 任务D数据采集与实时计算20分 环境说明 服务端登录地址详见各任务服务端说明。 补充说明各节点可通过Asbru工具或SSH客户端进行SSH访问 Flink任务在Yarn上用per job模式即Job分离模式不采用Session模式方便Yarn回收资源。 子任务一实时数据采集 在主节点使用Flume采集/data_log目录下实时日志文件中的数据将数据存入到Kafka的Topic中Topic名称分别为ChangeRecord、ProduceRecord和EnvironmentData分区数为4将Flume采集ChangeRecord主题的配置截图粘贴至客户端桌面【Release\任务D提交结果.docx】中对应的任务序号下编写新的Flume配置文件将数据备份到HDFS目录/user/test/flumebackup下要求所有主题的数据使用同一个Flume配置文件完成将Flume的配置截图粘贴至客户端桌面【Release\任务D提交结果.docx】中对应的任务序号下。 子任务二使用Flink处理Kafka中的数据 编写Scala工程代码使用Flink消费Kafka中的数据并进行相应的数据统计计算。 使用Flink消费Kafka中ProduceRecord主题的数据统计在已经检验的产品中各设备每5分钟生产产品总数将结果存入Redis中key值为“totalproduce”value值为“设备id最近五分钟生产总数”。使用redis cli以HGETALL key方式获取totalproduce值将结果截图粘贴至客户端桌面【Release\任务D提交结果.docx】中对应的任务序号下需两次截图第一次截图和第二次截图间隔5分钟以上第一次截图放前面第二次截图放后面 注ProduceRecord主题生产一个产品产生一条数据 change_handle_state字段为1代表已经检验0代表未检验 时间语义使用Processing Time。 使用Flink消费Kafka中ChangeRecord主题的数据当某设备30秒状态连续为“预警”输出预警信息。当前预警信息输出后最近30秒不再重复预警即如果连续1分钟状态都为“预警”只输出两次预警信息将结果存入Redis中key值为“warning30sMachine”value值为“设备id预警信息”。使用redis cli以HGETALL key方式获取warning30sMachine值将结果截图粘贴至客户端桌面【Release\任务D提交结果.docx】中对应的任务序号下需两次截图第一次截图和第二次截图间隔1分钟以上第一次截图放前面第二次截图放后面 注时间使用change_start_time字段忽略数据中的change_end_time不参与任何计算。忽略数据迟到问题。 Redis的value示例115,2022-01-01 09:53:10:设备115 连续30秒为预警状态请尽快处理 (2022-01-01 09:53:10 为change_start_time字段值中文内容及格式必须为示例所示内容。) 使用Flink消费Kafka中ChangeRecord主题的数据统计每3分钟各设备状态为“预警”且未处理的数据总数将结果存入MySQL数据库shtd_industry的threemin_warning_state_agg表中追加写入表结构如下。请将任务启动命令复制粘贴至客户端桌面【Release\任务D提交结果.docx】中对应的任务序号下启动且数据进入后按照设备id升序排序查询threemin_warning_state_agg表进行截图第一次截图后等待3分钟再次查询并截图,将结果截图粘贴至客户端桌面【Release\任务D提交结果.docx】中对应的任务序号下。 threemin_warning_state_agg表 字段 类型 中文含义 change_machine_id int 设备id totalwarning int 未被处理预警的数据总数 window_end_time varchar 窗口结束时间yyyy-MM-dd HH:mm:ss 注时间语义使用Processing Time。 任务E数据可视化15分 环境说明 数据接口地址及接口描述详见各任务服务端说明。 注所有数据排序按照接口返回数据顺序处理即可不用特意排序。 子任务一用柱状图展示设备历史各个状态持续时长 编写Vue工程代码根据接口用柱状图展示接口所有数据中各设备各个状态持续时长秒同时将用于图表展示的数据结构在浏览器的console中进行打印输出将图表可视化结果和浏览器console打印结果分别截图并粘贴至客户端桌面【Release\任务E提交结果.docx】中对应的任务序号下。 子任务二用柱状图展示每日所有车间各设备平均运行时长 编写Vue工程代码根据接口用柱状图展示每日所有车间各设备平均运行时长秒四舍五入保留两位小数每日里的所有设备按照接口返回的数据顺序展示即可同时将用于图表展示的数据结构在浏览器的console中进行打印输出将图表可视化结果和浏览器console打印结果分别截图并粘贴至客户端桌面【Release\任务E提交结果.docx】中对应的任务序号下。 子任务三用折线图展示某设备每日运行时长 编写Vue工程代码根据接口用折线图展示设备OP160每日的运行时长秒同时将用于图表展示的数据结构在浏览器的console中进行打印输出将图表可视化结果和浏览器console打印结果分别截图并粘贴至客户端桌面【Release\任务E提交结果.docx】中对应的任务序号下。 子任务四用条形图展示每日各设备产量 编写Vue工程代码根据接口用条形图展示每日各设备产量同时将用于图表展示的数据结构在浏览器的console中进行打印输出将图表可视化结果和浏览器console打印结果分别截图并粘贴至客户端桌面【Release\任务E提交结果.docx】中对应的任务序号下。 子任务五用折柱混合图展示设备日均产量和所在车间日均产量 编写Vue工程代码根据接口用折柱混合图展示设备日均产量四舍五入保留两位小数和所在车间日均产量四舍五入保留两位小数其中柱状图展示各设备的日均产量折线图展示该设备所在车间的日均产量同时将用于图表展示的数据结构在浏览器的console中进行打印输出将图表可视化结果和浏览器console打印结果分别截图并粘贴至客户端桌面【Release\任务E提交结果.docx】中对应的任务序号下。 任务F综合分析10分 子任务一请简述ZooKeeper的选举策略leader和follower的区别。 请概述ZooKeeper的选举策略、leader和follower的区别将内容编写至客户端桌面【Release\任务F提交结果.docx】中对应的任务序号下。 子任务二请简述MapReduce的Shuffle过程。 请简述MapReduce的Shuffle过程将内容编写至客户端桌面【Release\任务F提交结果.docx】中对应的任务序号下。 子任务三请根据可视化图表做以下分析。 如果你是工厂技术人员通过可视化结果你将会对工厂设备优化不限于该角度考生自行扩展分析角度做出哪些建议将内容编写至客户端桌面【Release\任务F提交结果.docx】中对应的任务序号下。
http://www.huolong8.cn/news/84138/

相关文章:

  • 秦皇岛企业建网站网站备案查询工信网
  • 大学 两学一做专题网站四川省建设招标网站首页
  • 网站开发项目的里程碑述建设一个网站的具体步骤
  • 高端定制网站cms网站搭建
  • 石家庄模板建站代理wordpress下载的插件怎么用
  • 郑州网站改版公司怎么建设食品网站
  • 买了虚拟主机怎么做网站百度排名优化专家
  • 北京 科技网站建设微信营销管理工具
  • 建设银行可以查房贷的网站简单制作网站的过程
  • 阳山网站建设建设环保网站的目的与功能分析
  • 山东网站建设排行榜sem可以为网站建设做什么
  • 局域网内的网站建设深圳宝安seo外包
  • 网站建设做的好处购物网站怎么经营
  • 网站内容页301如何做企业文化建设总结报告
  • 网站搜索百度世界排名
  • 有经验的合肥网站建设小程序token
  • 渭南市建设局网站修改wordpress 表格
  • 长沙百度网站推广优化网站建设公司的前端
  • 卫龙的网站是谁做的网站前后端的关系
  • 一个网站开发团队的人员配置html5 门户网站模版
  • 做任务的网站购物网站APP
  • 南通建设局网站学编程的基础要具备什么
  • wordpress网站前端企业网站主页素描模板
  • 兴平做网站东莞网站建设那家专业
  • 动漫网站的设计与实现以网红引流促业态提升
  • 网站模板 北京公司建英文产品网站
  • 国外设计网站pinterest网址wordpress 通用代码
  • 网站流程示意湖南建设人力资源网官网
  • 哈密网站制作公司-哈密网站建设|哈密网络公司|哈密做网站网站挂到国外服务器
  • 怎么做网站手机版专业做网络推广的公司