当前位置: 首页 > news >正文

网站建设与管理的书销售产品网站有哪些

网站建设与管理的书,销售产品网站有哪些,做网站优化的话术,全国最大工地招工网1、关于虚拟机的复制 新建一台虚拟机#xff0c;系统为CentOS7#xff0c;再克隆两台#xff0c;组成一个三台机器的小集群。正常情况下一般需要五台机器#xff08;一个Name节点#xff0c;一个SecondName节点#xff0c;三个Data节点。#xff09; 此外#xff0c;为…1、关于虚拟机的复制 新建一台虚拟机系统为CentOS7再克隆两台组成一个三台机器的小集群。正常情况下一般需要五台机器一个Name节点一个SecondName节点三个Data节点。  此外为了使网络生效需要注意以下几点 1  编辑网络配置文件  /etc/sysconfig/network-scripts/ifcfg-eno16777736 先前的版本需要删除mac地址行注意不是uuid而是hwaddr这一点新的CentOS不再需要 2 删除网卡和mac地址绑定文件   rm -rf /etc/udev/rules.d/70-persistent-net.rules 3 重启动系统 此外mapreduce在运行的时候可能会随机开放端口在CentOS7中可以使用下面的命令将防火墙关闭 systemctl stop firewalld 或者使用下面的命令使在集群中的机器可以不受限制的互相访问 #把一个源地址加入白名单以便允许来自这个源地址的所有连接firewall-cmd --add-rich-rule rule familyipv4 source address192.168.1.215 accept --permanent firewall-cmd --reload   2、将IP地址设置为静态 准备了三个IP地址 192.168.1.215 192.168.1.218 192.168.1.219  在CentOS7下修改ip地址的文件为/etc/sysconfig/network-scripts/ifcfg-eno16777736 主要作如下设置其他的不需要变 # none或static表示静态 OOTPROTOstatic # 是否随网络服务启动 ONBOOTyes IPADDR192.168.1.215 # 子网掩码 NETMASK255.255.255.0 # 网关设置自己的 GATEWAY192.168.0.1 # dns DNS1202.106.0.20 3、修改hostname与hosts文件 这两个文件均处于系统根目录的etc文件夹之中 下图显示了映射后的机器名称以及对应的ip地址#localhost.localdomain这一行多余仅master刚刚好 主节点master两个数据节点data1data2   4、添加用户与组 需要为Hadoop软件系统设置单独的用户和组本例中新添加的用户和所属组的名称均为hadoop   adduser hadoop passwd hadoop   5、利用ssh实现免密码登录 注意目的是使Hadoop系统的所属用户在集群之间实现免密码登录而不是root用户除非Hadoop系统的所有者root但一般不建议这么做。这一点非常重要。 在本例中软件所有者是上面新建的hadoop用户密钥也要由hadoop用户来生成。 1 更改配置文件 需要对sshd_config文件进行修改主要是以下三项取消注释即可  vim /etc/ssh/sshd_configRSAAuthentication yes PubkeyAuthentication yes AuthorizedKeysFile .ssh/authorized_keys 之后执行以下命令重启sshd服务 service sshd restart 2 生成密钥并分发相关文件 简单的方法密钥生成后使用直接使用 ssh-copy-id 命令把密钥追加到远程主机的 .ssh/authorized_key 上如下 # 生成密钥ssh-keygen -t rsa# 密钥追加到远程主机ssh-copy-id -i ~/.ssh/id_rsa.pub  hadoop192.168.1.218ssh-copy-id -i ~/.ssh/id_rsa.pub  hadoopdata2 复杂的方法不再推荐具体实现步骤如下 a 将三台计算机master、data1、data2分别切换到hadoop用户下并分别cd到hadoop用户的家目录然后执行 ssh-keygen -t rsa 命令这样的结果是在各自家目录的.ssh文件夹中生成了对应的id_rsa.pub 与id_rsa 密钥对。 b 将data1192.168.1.218data2192.168.1.219两台计算机中的公钥文件复制到master192.168.1.215中并重命名为id_rsa.pub218id_rsa.pub219置于hadoop用户家目录下的.ssh文件夹下。命令参考如下  scp id_rsa.pub hadoopmaster:~/.ssh/id_rsa.pub218 scp id_rsa.pub hadoopmaster:~/.ssh/id_rsa.pub219  hadoopmaster表示用master中的hadoop用户登录master 这样以来master主机hadoop用户的.ssh文件夹就有了以下三个公钥文件 d_rsa.pub、d_rsa.pub218、d_rsa.pub218 c 在master中将以上三个文件以追加的形式写入authorized_keys文件这些文件均位于hadoop用户.ssh文件夹中。  cat id_rsa.pub authorized_keys cat id_rsa.pub218 authorized_keys cat id_rsa.pub219 authorized_keys  d 更改 authorized_keys 文件的权限。这一步也可在分发后单独进行。  chmod 600 authorized_keys  e 分发authorized_keys 文件到data1data2中hadoop用户的.ssh文件中并再次检查权限。  scp authorized_keys hadoopdata1:~/.ssh/authorized_keys scp authorized_keys hadoopdata2:~/.ssh/authorized_keys  之后就可以在小集群中使用hadoop用户实现免密码登录了。 注意的是如果使用的linux登录用户不是root用户需要修改以下.ssh文件夹以及authorized_key文件的权限否则是无法实现免密码登录的 chmod 700 .ssh cd .ssh/ chmod 600 authorized_keys  6、安装jdk  先在master中安装之后分发这里使用的是jdk-8u112-linux-x64.tar.gz  1 解压安装  首先需要切换到root用户  su root cd /usr mkdir java tar -zxvf jdk-8u112-linux-x64.tar.gz ./java ln -s jdk1.8.0_112/ jdk  2 分发 scp -r /usr/java rootdata2:/usr/ scp -r /usr/java rootdata2:/usr/ 3 设置环境变量三台都要设置 vim /etc/profileexport JAVA_HOME/usr/java/jdk export JRE_HOME/usr/java/jdk/jre export CLASSPATH.:$CLASSPATH:$JAVA_HOME/lib:$JRE_HOME/lib export PATH$PATH:$JAVA_HOME/bin:$JRE_HOME/bin source /etc/profile  7、安装hadoop 先在master下安装再分发 安装的版本为2.6.5解压安装到/usr/Apache/目录下并建立软连接 Hadoop所有配置文件的目录位于/usr/Apache/hadoop-2.6.5/etc/hadoop下由于建立了一个软连接所以/usr/Apache/hadoop/etc/hadoop是一样的 在hadoop软件目录的dfs文件夹中创建三个子文件夹name、data、tmp下面属性的设置会用到注意其所有者和所属组。 以下是配置文件的设置 1 hdfs.site.xml  propertynamedfs.namenode.name.dir/namevaluefile:/usr/Apache/hadoop/dfs/name/value /property propertynamedfs.datanode.data.dir/namevaluefile:/usr/Apache/hadoop/dfs/data/value /property propertynamedfs.replication/namevalue3/value /property propertynamedfs.namenode.secondary.http-address/namevaluemaster:50090/value /property propertynamedfs.webhdfs.enabled/namevaluetrue/value /property 2 mapred-site.xml propertynamemapreduce.framework.name/namevalueyarn/value /property propertynamemapreduce.jobhistory.address/namevaluemaster:10020/value /property propertynamemapreduce.jobhistory.webapp.address/namevaluemaster:19888/value /property 3 yarn-site.xml 设置如下  property nameyarn.nodemanager.aux-services/name valuemapreduce_shuffle/value  /property  property nameyarn.resourcemanager.address/name  valuemaster:8032/value  /property  property  nameyarn.resourcemanager.scheduler.address/name  valuemaster:8030/value  /property  property  nameyarn.resourcemanager.resource-tracker.address/name valuemaster:8031/value  /property  property nameyarn.resourcemanager.admin.address/name valuemaster:8033/value  /property  property nameyarn.resourcemanager.webapp.address/name valuemaster:8088/value  /property   4 slaves配置文件 master data1 data2 注本例将master也作为了一个数据节点 5 hadoop-env.sh和yarn-env.sh 这是两个相当重要的环境变量配置文件由于目前仅安装Hadoop所以仅设置jdk即可其他默认。 export JAVA_HOME/usr/java/jdk 6 core-site.xml property namehadoop.tmp.dir/namevalue/usr/Apache/hadoop/tmp/valuedescriptionA base for other temporary directories./description /property propertynamefs.defaultFS/namevaluehdfs://master:9000/value /property   7 将Apache文件夹分发到data1data2对应的目录下 # 分发 scp -r ./Apache rootdata1:/usr/ scp -r ./Apache rootdata2:/usr/# 这里使用了root用户记得分发后要改所有者与所属组 chown -R hadoop:hadoop Apache/ 注意jdk是不需要改所有者与所属组的因为通用  8 三台机器分别配置hadoop用户的.bashrc文件设置环境变量 su hadoop vim ~/.bashrc export $HADOOP_HOME/usr/Apache/hadoop export HADOOP_COMMON_HOME$HADOOP_HOME export HADOOP_HDFS_HOME$HADOOP_HOME export HADOOP_MAPRED_HOME$HADOOP_HOME export HADOOP_YARN_HOME$HADOOP_HOME export HADOOP_CONF_DIR$HADOOP_HOME/etc/hadoop export CLASSPATH.:$HADOOP_HOME/lib:$CLASSPATH export PATH$PATH:$HADOOP_HOME/bin:$HADOOP_HOME/sbin source ~/.bashrc 8、开启与结束 start-dfs.sh start-yarn.sh mr-jobhistory-daemon.sh start historyserver yarn-daemon.sh start historyserver  ##### stop-dfs.sh stop-yarn.sh mr-jobhistory-daemon.sh stop historyserver yarn-daemon.sh stop historyserver 9、运行结果 相关进程         All Applications http://192.168.1.215:8088 JobHistory  http://192.168.1.215:19888 Master http://192.168.1.215:50070    转载于:https://www.cnblogs.com/learn21cn/p/learn21cn.html
http://www.huolong8.cn/news/211221/

相关文章:

  • 南充高端网站建设做网站如何选择关键词
  • 合肥市建设工程造价信息网站景安做网站教程
  • 专业做网站建设制作服务建设网站需要的工具
  • 百度不收录网站内页注册公司需要什么条件吗
  • 做网站的公司怎么找客户做网站需要掌握的软件
  • 网站建设的报告蓝色网站后台
  • 如何建设一个自己的网站首页网站前期定位
  • 苏州 规划建设局网站做企业咨询管理怎么样
  • 企业网站实名审核中心厦门学网站建设
  • 网页设计和网站开发有什么区别东营企业自助建站
  • 内江建网站龙岩天宫山缆车门票多少钱
  • 商城网站微信支付接口申请流程营销网站首页设计
  • html可以做网站后台吗现在哪里大搞建设
  • 湖州网站开发公司锡林郭勒盟建设工程造价信息管理网站
  • 个人电影网站备案衡阳网络营销公司
  • 做托福的网站怎样重新运行wordpress
  • 建设文明网站包括19
  • asp开发网站详细步骤做设计网站的工作内容
  • 网站建设咨询什么宿州高端网站建设公司哪家好
  • 网站建设推广案例c 转网站开发
  • 网站代码怎么看网站开发 硬件环境
  • 公司企业网站设计尺寸网站建设的企业目标
  • 搜索引擎站长平台云南官网制作
  • 做网站需要了解什么漳州微信网站开发
  • 八年级信技做网站网站建设客户资源
  • 注册网站需要多少钱手机端怎么变成电脑端
  • 外国网站建设公司中国河北网站
  • 建设银行网站打不井工作室有专门的网站
  • 阿里巴巴国际站首页网站主机与服务器
  • 建立网站找什么公司狮山镇建设局网站