当前位置:操作系统 > Unix/Linux >>

Hadoop配置学习(一)

Hadoop配置学习(一)
 
今天刚刚从hadoop网址下载了edition 0.21,上传到公司内网 server上试了一把。
 
跟着官方网站走了一趟,在执行
Format a new distributed-filesystem:
$ bin/hadoop namenode -format

 

 
后执行
 
Start the hadoop daemons:
$ bin/start-all.sh

 

 
时报错:
 
2011-03-01 14:08:25,278 INFO org.apache.hadoop.security.Groups: Group mapping impl=org.apache.hadoop.security.ShellBa
 
sedUnixGroupsMapping; cacheTimeout=300000
 
2011-03-01 14:08:25,881 ERROR org.apache.hadoop.hdfs.server.datanode.DataNode: java.lang.IllegalArgumentException: Invalid URI for NameNode address (check fs.defaultFS): file:/// has no authority.
 
        at org.apache.hadoop.hdfs.server.namenode.NameNode.getAddress(NameNode.java:214)
 
        at org.apache.hadoop.hdfs.server.datanode.DataNode.<init>(DataNode.java:237)
 
        at org.apache.hadoop.hdfs.server.datanode.DataNode.makeInstance(DataNode.java:1440)
 
        at org.apache.hadoop.hdfs.server.datanode.DataNode.instantiateDataNode(DataNode.java:1393)
 
        at org.apache.hadoop.hdfs.server.datanode.DataNode.createDataNode(DataNode.java:1407)
 
        at org.apache.hadoop.hdfs.server.datanode.DataNode.main(DataNode.java:1552)
 
 
 
2011-03-01 14:08:25,885 INFO org.apache.hadoop.hdfs.server.datanode.DataNode: SHUTDOWN_MSG: 
 
/************************************************************
 
SHUTDOWN_MSG: Shutting down DataNode at cloudface04/9.186.62.74
 
************************************************************/
 
这个问题原因是fs.defaultFS没有配置。可以参照
 
conf/core-site.xml:

<configuration>
     <property>
         <name>fs.default.name</name>
         <value>hdfs://localhost:9000</value>
     </property>
</configuration>

conf/hdfs-site.xml:

<configuration>
     <property>
         <name>dfs.replication</name>
         <value>1</value>
     </property>
</configuration>

conf/mapred-site.xml:

<configuration>
     <property>
         <name>mapred.job.tracker</name>
         <value>localhost:9001</value>
     </property>
</configuration>

 

对hadoop进行基本配置。默认并没有配置。
配置好后,重新执行:
$ bin/start-all.sh 启动正常。
hadoop默认的NameNode 和 JobTracker 
NameNode - http://localhost:50070/
JobTracker - http://localhost:50030/
CopyRight © 2022 站长资源库 编程知识问答 zzzyk.com All Rights Reserved
部分文章来自网络,