当前位置: 首页 > news >正文

娱乐网站建设微信微网站平台

娱乐网站建设,微信微网站平台,网络营销推广方案怎么做,建设网站域名是买吗PySpark的编程#xff0c;主要氛围三大步骤#xff1a;1#xff09;数据输入、2#xff09;数据处理计算、3#xff09;数据输出 1#xff09;数据输入:通过SparkContext对象#xff0c;晚上数据输入 2#xff09;数据处理计算:输入数据后得到RDD对象#xff0c;对RDD…PySpark的编程主要氛围三大步骤1数据输入、2数据处理计算、3数据输出 1数据输入:通过SparkContext对象晚上数据输入 2数据处理计算:输入数据后得到RDD对象对RDD对象进行迭代计算 3数据输出:最终通过RDD对象的成员方法完成数据输出工作 安装pyspark pip install pyspark pip install -i https://pypi.tuna.tsinghua.edu.cn/simple pyspark   # 清华大学镜像 想要使用PySpark库完成数据处理首先需要构建一个执行环境入口对象 PySpark的执行环境入口对象是:类SparkContext的类对象 构建PySpark执行环境入口对象 # 导包 from pyspark import SparkConf, SparkContext# 创建SparkConf类对象 conf SparkConf().setMaster(local[*]).setAppName(test_spark_app) # 链式调用的写法# 基于SparkConf类对象创建parkContext类对象 sc SparkContext(confconf)# 打印PySpark的允许版本 print(sc.version)# 停止SparkContext对象的运行(停止PySpark程序) sc.stop() RDD: 弹性分布式数据集 1. python数据容器 转RDD对象 通过SpaarkContext对象的parallelize成员方法,将python数据容器转换为PySpark的RDD对象 2. 读取文件数据 转RDD对象 通过SpaarkContext入口对象textFile()方法来读取文件来构建出RDD对象 通过PySpark代码加载数据即数据输入: from pyspark import SparkConf, SparkContextconf SparkConf().setMaster(local[*]).setAppName(test_spark) sc SparkContext(confconf)# 通过parallelize方法将python数据容器加载到spark内成为RDD对象 rdd1 sc.parallelize([1, 2, 3, 4, 5]) rdd2 sc.parallelize((1, 2, 3, 4, 5)) rdd3 sc.parallelize(abcdefg) rdd4 sc.parallelize({1, 2, 3, 4, 5}) rdd5 sc.parallelize({key1: value1, key2: value})# 如果要查看RDD里面有什么内容需要用collect()方法 print(rdd1.collect()) # [1, 2, 3, 4, 5] print(rdd2.collect()) # [1, 2, 3, 4, 5] print(rdd3.collect()) # [a, b, c, d, e, f, g] print(rdd4.collect()) # [1, 2, 3, 4, 5] print(rdd5.collect()) # [key1, key2]# 通过textFile方法读取文件数据加载到spark内成为RDD对象 rdd6 sc.textFile(./test.txt) print(rdd6.collect()) # [123456, 123456, 123456]sc.stop()数据计算 PySpark的数据计算,都是基于RDD对象来进行的那么如何进行呢 依赖RDD对象内置丰富的 成员方法算子 map方法: 对RDD内的元素逐个处理并返回一个新的RDD接受一个处理函数可用lambda匿名函数快速编写 from pyspark import SparkConf, SparkContext# 添加python解释器路径 # import os # os.environ[PYSPARK_PYTHON] python.exe # python解释器路径# 创建SparkConf类对象 conf SparkConf().setMaster(local[*]).setAppName(test_spark)# 基于SparkConf类对象创建sparkContext类对象 sc SparkContext(confconf)# 准备一个RDD rdd sc.parallelize([1, 2, 3, 4, 5])# 通过map方法将全部数据都乘以10 # def func(data): # return data * 10# rdd2 rdd.map(func) # (T) - U : 表示func函数必须有一个参数和一个返回值 # print(rdd2.collect()) # [10, 20, 30, 40, 50]# 匿名函数 # rdd2 rdd.map(lambda x: x * 10) # print(rdd2.collect())# 链式调用 rdd3 rdd.map(lambda x: x * 10).map(lambda x: x 5) print(rdd3.collect()) # [15, 25, 35, 45, 55]sc.stop() flatmap算子: 对rdd执行map操作,然后进行解除嵌套操作 from pyspark import SparkConf, SparkContextconf SparkConf().setMaster(local[*]).setAppName(test_spark) sc SparkContext(confconf)# 准备一个RDD rdd sc.parallelize([itheima itcast 666, itheima itheima itcast, python itheima])# 需求将RDD数据里面的一个个单词提取出来 rdd2 rdd.flatMap(lambda x: x.split( )) print(rdd2.collect()) # [itheima, itcast, 666, itheima, itheima, itcast, python, itheima]
http://www.huolong8.cn/news/207627/

相关文章:

  • 网站空间已过期wordpress合集
  • 自己设置免费网站设计平台网站免费进入窗口软件2023
  • 怎样建立自己手机网站网站专题页面用什么做
  • 途牛网站建设策划书静态网站建设摘要
  • 好品质自适应网站建设网络工程公司的业务
  • 网站备案表是什么山东服务好的seo
  • 如何优化网站速度温州室内设计公司排名
  • 网站设置成灰色进入 网站cms
  • 国外logo设计网站推荐网站兼容ie7
  • 重庆网站首页排名公司seo优化报告
  • 服务器上的网站打不开顺德定制网站建设
  • wordpress克隆他人的网站用网站做宣传的方案
  • 店铺图片设计公司做seo网站
  • 乐从网站建设网站开分站
  • 网站建设 面试题徐州网站开发多少钱
  • .net 网站 数据库配置文件网站开发团队成员
  • 官方网站开发wordpress静态化后404
  • 山东东方路桥建设总公司官方网站wordpress支持python吗
  • 保健品网站建设方案书模板成都市公园城市建设管理局网站
  • 安徽建设局网站wordpress 导出表单
  • 江门北京网站建设安徽建设工程信息管理平台
  • 安平县哪个做网站的好北京海淀区建设局网站
  • 网站建设公司网站源码网站建设代码好难啊
  • 做网站用什么开发工具vps怎么上传网站程序
  • 网站建设好武山县建设局网站
  • 产品类型 速成网站中国建设传媒网
  • 电子商务网站设计小结i营销
  • 湖北自适应网站建设报价wordpress手机主题浮动菜单
  • 帮传销做网站网站seo诊断工具
  • 最常见的企业建站程序有做公司网站 国外系统