hadoop重新格式化HDFS步骤解析
了解Hadoop的同学都知道,Hadoop有两个核心的组成部分,一个是HDFS,另一个则是MapReduce,HDFS作为Hadoop的数据存储方案,MapReduce则提供计算服务;同时,HDFS作为一种分布式文件系统,它的安装也是需要相应的格式化操作的,如果安装失败或者我们需要重新安装的时候,那我们就需要对HDFS重新进行格式化,这篇文章就和大家一起讨论下如何进行HDFS的重新格式化。
重新格式化hdfs系统的方法:
1、打开hdfs-site.xml
我们打开Hadoop的hdfs-site.xml,基本配置如下所示:
<property> <name>dfs.name.dir</name> <value>/usr/local/hadoop/hdfs/name</value> </property> <property> <name>dfs.data.dir</name> <value>/usr/local/hadoop/hdsf/data</value> </property>
将 dfs.name.dir所指定的目录删除、dfs.data.dir所指定的目录删除,及我们需要删除hdfs-site.xml中配置的存储信息路径。
2、删除core-site.xml配置文件指定的相关目录
<property> <name>hadoop.tmp.dir</name> <value>/usr/local/hadoop/hadooptmp</value> </property>
将hadoop.tmp.dir所指定的目录删除,即删除Hadoop的临时文件路径。
3、重新执行命令:hadoop namenode -format
格式化完毕。
这种格式化HDFS的方式是需要把原来HDFS中的数据全部清空,然后再格式化并安装一个全新的HDFS。
注:这种格式化方式需要将HDFS中的数据全部清空,以后我们探讨不需删除数据即可重新格式化的方法。
总结
以上就是本文关于hadoop重新格式化HDFS步骤解析的全部内容,希望对大家有所帮助。感兴趣的朋友可以继续参阅:浅谈七种常见的Hadoop和Spark项目案例等以及本站其他相关专题,如有不足之处,欢迎留言指出。感谢朋友们对本站的支持!
上一篇:Nginx下让WordPress支持固定链接的伪静态规则
栏 目:Nginx
下一篇:关于nginx+php5.3.8+eclipse3.7工作空间的配置方法
本文标题:hadoop重新格式化HDFS步骤解析
本文地址:http://www.codeinn.net/misctech/97252.html