<value>node1:9870</value> </property> <property> <name>dfs.namenode.http-address.hdfscluster.node2</name> <value>node2:9870</value> </property> <!--journalnode地址--> <property> <name>dfs.namenode.shared.edits.dir</name> <value>qjournal://node1:8485;node2:8485;node3:8485/hdfsclu...
打开编辑zoo.conf文件:vi zoo.conf,修改箭头的几行配置和添加方框内的代码,node1,node2,node3分别是对应节点的机器名(根据实际名称配置) (5)给每个节点创建myid node1: node2: node3: (6)把node1节点的zookeeper复制到node2和node3节点上 cd到/opt/software/ 执行scp -r zookeeper-3.4.14 root@node2:/o...
配置白名单步骤如下:1)在NameNode节点的/opt/module/hadoop-3.1.3/etc/hadoop目录下分别创建whitelist 和blacklist文件(1)创建白名单[atguigu@hadoop102 hadoop]$ vim whitelist在whitelist中添加如下主机名称,假如集群正常工作的节点为102 103hadoop102hadoop103(2)创建黑名单[atguigu@hadoop102 hadoop]$ touch...
九、查看HDFS WEBUI 在浏览器输入网址 :http://node1:9870/dfshealth.html#tab-overview 显示如下页面。表示部署成功
1、WebHDFS HDFS内置、默认开启 基于REST的HDFS API 重定向到资源所在的datanode 客户端会和nn、dn交互 使用内置的WebHDFS REST API操作访问 server1:9870/webhdfs/v1 端口由dfs.namenode.http-address指定。默认值9870 2、HttpFS 独立服务,手动开启 基于REST的HDFS API 数据先传输到该httpfs server,再由其传输到...
我们现在可以到集群的9870界面查看一下,随便找一个文件看一下,点击文件名称,可以看到Block information 但是文件太小,只有一个块 叫Block 0 NameNode主要包括以下文件: 这些文件所在的路径是由hdfs-default.xml的dfs.namenode.name.dir属性控制的 hdfs-default.xml文件在哪呢?
{“Location”:“http://:/webhdfs/v1/ ?op=CREATE…”} 示例: 在/data/hdfs-test目录中创建一个名字为webhdfs_api.txt文件,并写入内容。 使用postman创建一个请求,设置请求方式为PUT,请求url为: http://node1.itcast.cn:9870/webhdfs/v1/data/hdfs-test/webhdfs_api.txt?op=CREATE&overwrite=true&rep...
1.查看hadoop的所有命令 hadoop fs 查看hadoop所有命令 2.启动hadoop集群 所有节点一次性启动:myhadoop.sh start 逐个几点启动:sbin/start-dfs.sh sbin/start-yarn.sh 群起集群 3.创建文件夹 hadoop fs -mkdir /mytest 访问hadoop9870的端口进行浏览,发现确实多出了一个mytest文件夹: ...
http://node1.itcast.cn:9870/webhdfs/v1/data/hdfs-test/webhdfs_api.txt?op=CREATE&overwrite=true&replication=2&noredirect=true HTTP会响应一个用于上传数据的URL链接: { “Location”: “http://node1.itcast.cn:9864/webhdfs/v1/data/hdfs-test/webhdfs_api.txt?op=CREATE&namenoderpcaddress=node...
一、NameNode故障处理 1、需求:NameNode进程挂了并且存储的数据也丢失了,如何恢复NameNode 2、故障模拟 (1)kill -9 NameNode进程 [atguigu@hadoop102 current]$ kill -9 19886 (2)删除NameNode存储的数据(/opt /module /hadoop-3.1.3 /data /tmp /dfs/name)[atguigu@hadoop102 hadoop-3.1.3]$ ...