当前位置: 首页 > news >正文

三水 网站建设手机图片制作软件免费

三水 网站建设,手机图片制作软件免费,北京优化seo公司,seo是什么味HA 集群搭建的难度主要在于配置文件的编写#xff0c; 心细#xff0c;心细#xff0c;心细#xff01; ha模式下#xff0c;secondary namenode节点不存在... 集群部署节点角色的规划#xff08;7节点#xff09;------------------server01   namenode   zkfcserv…  HA 集群搭建的难度主要在于配置文件的编写 心细心细心细   ha模式下secondary namenode节点不存在... 集群部署节点角色的规划7节点------------------server01   namenode   zkfcserver02   namenode   zkfcserver03   resourcemanagerserver04   resourcemanagerserver05   datanode   nodemanager   zookeeper   journal nodeserver06   datanode   nodemanager   zookeeper   journal node server07   datanode   nodemanager   zookeeper   journal node ------------------集群部署节点角色的规划3节点------------------server01   namenode   resourcemanager   zkfc   nodemanager   datanode   zookeeper   journal nodeserver02   namenode   resourcemanager   zkfc   nodemanager   datanode   zookeeper   journal nodeserver03   datanode   nodemanager   zookeeper journal node------------------ 1.修改Linux主机名 2.修改IP 3.修改主机名和IP的映射关系 /etc/hosts 4.关闭防火墙 5.ssh免登陆 6.安装JDK配置环境变量等 7.集群时间同步   安装步骤 1.安装配置zooekeeper集群   1.1解压   tar -zxvf zookeeper-3.4.5.tar.gz -C /home/hadoop/app/     1.2修改配置 cd /home/hadoop/app/zookeeper-3.4.5/conf/ cp zoo_sample.cfg zoo.cfg vim zoo.cfg     修改 dataDir/home/hadoop/app/zookeeper-3.4.5/tmp   在最后添加 server.1hadoop05:2888:3888 server.2hadoop06:2888:3888 server.3hadoop07:2888:3888     保存退出   然后创建一个tmp文件夹 mkdir /home/hadoop/app/zookeeper-3.4.5/tmp echo 1 /home/hadoop/app/zookeeper-3.4.5/tmp/myid     1.3将配置好的zookeeper拷贝到其他节点(首先分别在hadoop06、hadoop07根目录下创建一个hadoop目录mkdir /hadoop) scp -r /home/hadoop/app/zookeeper-3.4.5/ hadoop06:/home/hadoop/app/ scp -r /home/hadoop/app/zookeeper-3.4.5/ hadoop07:/home/hadoop/app/     注意修改hadoop06、hadoop07对应/hadoop/zookeeper-3.4.5/tmp/myid内容   hadoop06 echo 2 /home/hadoop/app/zookeeper-3.4.5/tmp/myid   hadoop07 echo 3 /home/hadoop/app/zookeeper-3.4.5/tmp/myid   2.安装配置hadoop集群   2.1解压 tar -zxvf hadoop-2.6.4.tar.gz -C /home/hadoop/app/     2.2配置HDFShadoop2.0所有的配置文件都在$HADOOP_HOME/etc/hadoop目录下   #将hadoop添加到环境变量中 vim /etc/profile export JAVA_HOME/usr/java/jdk1.7.0_55 export HADOOP_HOME/hadoop/hadoop-2.6.4 export PATH$PATH:$JAVA_HOME/cluster1n:$HADOOP_HOME/cluster1n   #hadoop2.0的配置文件全部在$HADOOP_HOME/etc/hadoop下 cd /home/hadoop/app/hadoop-2.6.4/etc/hadoop     2.2.1修改hadoop-env.sh export JAVA_HOME/home/hadoop/app/jdk1.7.0_55         2.2.2修改core-site.xml configuration !-- 集群名称在这里指定该值来自于hdfs-site.xml中的配置 -- property namefs.defaultFS/name valuehdfs://cluster1/value /property !-- 这里的路径默认是NameNode、DataNode、JournalNode等存放数据的公共目录 -- property namehadoop.tmp.dir/name value/root/apps/hadoop/tmp/value /property!-- ZooKeeper集群的地址和端口。注意数量一定是奇数且不少于三个节点-- property nameha.zookeeper.quorum/name valuehadoop05:2181,hadoop06:2181,hadoop07:2181/value /property /configuration   2.2.3修改hdfs-site.xml configuration !--指定hdfs的nameservice为cluster1需要和core-site.xml中的保持一致 -- property namedfs.nameservices/name valuecluster1/value /property !-- cluster1下面有两个NameNode分别是nn1nn2 -- property namedfs.ha.namenodes.cluster1/name valuenn1,nn2/value /property !-- nn1的RPC通信地址 -- property namedfs.namenode.rpc-address.cluster1.nn1/name valuemini1:9000/value /property !-- nn1的http通信地址 -- property namedfs.namenode.http-address.cluster1.nn1/name valuehadoop00:50070/value /property !-- nn2的RPC通信地址 -- property namedfs.namenode.rpc-address.cluster1.nn2/name valuehadoop01:9000/value /property !-- nn2的http通信地址 -- property namedfs.namenode.http-address.cluster1.nn2/name valuehadoop01:50070/value /property !-- 指定NameNode的edits元数据在JournalNode上的存放位置 -- property namedfs.namenode.shared.edits.dir/name valueqjournal://hadoop05:8485;hadoop06:8485;hadoop07:8485/cluster1/value /property !-- 指定JournalNode在本地磁盘存放数据的位置 -- property namedfs.journalnode.edits.dir/name value/home/hadoop/app/hdpdata/journaldata/value /property !-- 开启NameNode失败自动切换 -- property namedfs.ha.automatic-failover.enabled/name valuetrue/value /property !-- 指定该集群出故障时哪个实现类负责执行故障切换 -- property namedfs.client.failover.proxy.provider.cluster1/name valueorg.apache.hadoop.hdfs.server.namenode.ha.ConfiguredFailoverProxyProvider/value /property !-- 配置隔离机制方法多个机制用换行分割即每个机制暂用一行-- property namedfs.ha.fencing.methods/name value sshfence /value /property !-- 使用sshfence隔离机制时需要ssh免登陆 -- property namedfs.ha.fencing.ssh.private-key-files/name value/home/hadoop/.ssh/id_rsa/value /property !-- 配置sshfence隔离机制超时时间 -- property namedfs.ha.fencing.ssh.connect-timeout/name value30000/value /property /configuration   2.2.4修改mapred-site.xml configuration !-- 指定mr框架为yarn方式 -- property namemapreduce.framework.name/name valueyarn/value /property /configuration   2.2.5修改yarn-site.xml configuration !-- 开启RM高可用 -- property nameyarn.resourcemanager.ha.enabled/name valuetrue/value /property !-- 指定RM的cluster id -- property nameyarn.resourcemanager.cluster-id/name valueyrc/value /property !-- 指定RM的名字 -- property nameyarn.resourcemanager.ha.rm-ids/name valuerm1,rm2/value /property !-- 分别指定RM的地址 -- property nameyarn.resourcemanager.hostname.rm1/name valuenode-1/value /property property nameyarn.resourcemanager.hostname.rm2/name valuenode-2/value /property !-- 指定zk集群地址 -- property nameyarn.resourcemanager.zk-address/name valuenode-1:2181,node-2:2181,node-3:2181/value /property property nameyarn.nodemanager.aux-services/name valuemapreduce_shuffle/value /property /configuration   2.2.6修改slaves (slaves是指定子节点的位置因为要在hadoop01上启动HDFS、在hadoop03启动yarn所以hadoop01上的slaves文件指定的是datanode的位置hadoop03上的slaves文件指定的是nodemanager的位置) hadoop05 hadoop06 hadoop07     2.2.7下发安装包 #将安装包分发给其他机器scp -r /home/hadoop/app/hadoop-2.6.4 roothadoop06:/home/hadoop/app/     2.2.8配置免密码登陆 #首先要配置hadoop00到hadoop01、hadoop02、hadoop03、hadoop04、hadoop05、hadoop06、hadoop07的免密码登陆 #在hadoop01上生产一对钥匙 ssh-keygen -t rsa #将公钥拷贝到其他节点****包括自己**** ssh-coyp-id hadoop00 ssh-coyp-id hadoop01 ssh-coyp-id hadoop02 ssh-coyp-id hadoop03 ssh-coyp-id hadoop04 ssh-coyp-id hadoop05 ssh-coyp-id hadoop06 ssh-coyp-id hadoop07 #注意两个namenode之间要配置ssh免密码登陆 ssh远程补刀时候需要   ###注意严格按照下面的步骤!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!   2.5启动zookeeper集群 分别在hadoop05、hadoop06、tcast07上启动zk bin/zkServer.sh start #查看状态一个leader两个follower bin/zkServer.sh status   2.6手动启动journalnode 分别在在hadoop05、hadoop06、hadoop07上执行 hadoop-daemon.sh start journalnode #运行jps命令检验hadoop05、hadoop06、hadoop07上多了JournalNode进程 2.7格式化namenode #在hadoop00上执行命令: hdfs namenode -format #格式化后会在根据core-site.xml中的hadoop.tmp.dir配置的目录下生成个hdfs初始化文件 把hadoop.tmp.dir配置的目录下所有文件拷贝到另一台namenode节点所在的机器 scp -r tmp/ hadoop02:/home/hadoop/app/hadoop-2.6.4/ ##也可以这样建议hdfs namenode -bootstrapStandby   2.8格式化ZKFC(在active上执行即可) hdfs zkfc -formatZK     2.9启动HDFS(在hadoop00上执行) start-dfs.sh   2.10启动YARN start-yarn.sh #还需要手动在standby上手动启动备份的 resourcemanager yarn-daemon.sh start resourcemanager     到此hadoop-2.6.4配置完毕可以统计浏览器访问:     http://hadoop00:50070   NameNode hadoop01:9000 (active)     http://hadoop01:50070   NameNode hadoop02:9000 (standby)   验证HDFS HA   首先向hdfs上传一个文件 hadoop fs -put /etc/profile /profile hadoop fs -ls /       然后再kill掉active的NameNode kill -9 pid of NN     通过浏览器访问http://192.168.1.202:50070   NameNode hadoop02:9000 (active)   这个时候hadoop02上的NameNode变成了active   在执行命令 hadoop fs -ls / -rw-r--r-- 3 root supergroup 1926 2014-02-06 15:36 /profile     刚才上传的文件依然存在   手动启动那个挂掉的NameNode hadoop-daemon.sh start namenode     通过浏览器访问http://192.168.1.201:50070   NameNode hadoop01:9000 (standby) 验证YARN   运行一下hadoop提供的demo中的WordCount程序 hadoop jar share/hadoop/mapreduce/hadoop-mapreduce-examples-2.4.1.jar wordcount /profile /out     OK大功告成   测试集群工作状态的一些指令 hdfs dfsadmin -report #查看hdfs的各节点状态信息 cluster1n/hdfs haadmin -getServiceState nn1 #获取一个namenode节点的HA状态 scluster1n/hadoop-daemon.sh start namenode #单独启动一个namenode进程 ./hadoop-daemon.sh start zkfc #单独启动一个zkfc进程   HA模式下使用HDFS的javaAPI   需要将hadoop的conf目录下配置的core-site.xml和hdfs-site.xml文件拷贝到java项目中  转载于:https://www.cnblogs.com/jifengblog/p/9307451.html
http://www.huolong8.cn/news/69175/

相关文章:

  • 免费做那个的视频网站好帝国cms添加网站地图
  • 网站建设中 显示网站制作流程 优帮云
  • 网站建设动态网站推广问题
  • 备案成功的网站杭州网络科技设计中心
  • 自助房申请网站wordpress在评论框中加文字
  • 休闲咖啡厅网站开发目标初二信息课网站怎么做
  • 网站开发外贸网网站建设的公司
  • 网站建设哪家好 北京理发培训专业学校
  • 搭建网站需要哪些东西企业服务有哪些内容
  • 十年经验网站开发公司微信主题wordpress
  • 湖北网站建设报价便宜电商网站建设
  • 网站后台上传表格简述网站开发具体流程图
  • 网站wordpress入侵今天广州新闻最新消息
  • 农业推广网站建设无锡建网站
  • 单职业传奇网站wordpress 创建分类
  • 男女做爰视频免费网站平面设计培训班课程
  • dw+如何做自适应网站安徽省建设工程安全协会网站
  • asp网站开发的背景与环境免费招聘模板下载
  • 网站建设价格标准新闻小程序启动失败 错误码
  • 怎样下载网站模版怎么运用区块链做网站
  • 免费网站注册免费创建网站网站内页301重定向
  • 长宁企业网站制作做网站公奇闻司郑州汉狮
  • 淘宝上面建设网站安全么8步快速搭建个人网站视频
  • 网站备案号在哪里查询企业所得税政策最新2023税率
  • 广西壮锦网站建设策划书网络外包服务公司
  • 购买网站空间ftp设计淮南市招标投标信息网
  • 宁波网站扔优化那个网站做外贸好
  • 四川省建筑信息网长春seo经理
  • 网站建设齐齐哈尔开发网站实时监控
  • 北京轨道交通建设管理有限公司网站文字图片在线制作生成