做网站湘潭,上海建站模板搭建,黑糖 wordpress,湖南做网站 n磐石网络在用Hadoop进行大数据分析处理时#xff0c;通常配置的服务器不止一两台。为了减少人工操作的重复性#xff0c;所以hadoop提供了可以自动启动Hadoop集群的Shell脚本。在使用Shell脚本启动集群之前#xff0c;需要进行相应的配置。 说明#xff1a;$HADOOP_HOME/root/proje… 在用Hadoop进行大数据分析处理时通常配置的服务器不止一两台。为了减少人工操作的重复性所以hadoop提供了可以自动启动Hadoop集群的Shell脚本。在使用Shell脚本启动集群之前需要进行相应的配置。 说明$HADOOP_HOME/root/project/hadoop根据自己配置的路径不同而不同 打开 $HADOOP_HOME/etc/hadoop/workers 文件将集群中的所有机器的 hostname 都写到文件中。 分别打开 $HADOOP_HOME/sbin 目录下的 start-dfs.sh、stop-dfs.sh 文件并在文件最前面添加以下代码 #!/usr/bin/env bashHDFS_DATANODE_USERroot
HDFS_DATANODE_SECURE_USERhdfs
HDFS_NAMENODE_USERroot
HDFS_SECONDARYNAMENODE_USERroot 分别打开 $HADOOP_HOME/sbin 目录下的 start-yarn.sh、stop-yarn.sh 文件并在文件最前面添加以下代码 #!/usr/bin/env bashYARN_RESOURCEMANAGER_USERrootHADOOP_SECURE_DN_USERyarnYARN_NODEMANAGER_USERroot 问题描述配置完成Shell脚本后启动集群报错一下信息 hadoop start-dfs.sh Error: JAVA_HOME is not set and could not be found 解决办法在文件 .bashrc 文件中添加以下代码 export JAVA_HOME/root/project/jdkexport HADOOP_HOME/root/project/hadoopexport PATH.:$PATH:$JAVA_HOME/bin 转载于:https://www.cnblogs.com/zhangchao162/p/9709953.html