客户端会将文件切分成多少个packets,  Hadoop提供的HDFS布式文件存储系统

HDFS写入流程:

image.png

1、 使用HDFS提供的客户端Client, 向远程的Namenode发起RPC请求

2、 Namenode会检查要成立的文本是还是不是早已存在, 创制者是还是不是有权力进行操作,
成功则会为文件成立一个笔录, 否则会让客户端抛出分外;

3、 当客户端起来写入文件的时候, 客户端会将文件切分成四个packets,
并在内部以数量队列“data queue( 数据队列) ”的花样管理那些packets,
并向Namenode申请blocks, 获取用来存储replicas的极度的datanode列表,
列表的深浅依据Namenode中replication的设定而定;

4、 起初以pipeline( 管道) 的样式将packet写入所有的replicas中。
开发库把packet以流的措施写入第四个datanode,
该datanode把该packet存储之后,
再将其传递给在此pipeline中的下一个datanode, 直到结尾一个datanode,
那种写多少的方式呈流水线的样式。

5、 最后一个datanode成功存储之后会回去一个ack packet( 确认队列) ,
在pipeline里传递至客户端, 在客户端的付出库内部维护着”ack queue”,
成功接到datanode再次来到的ack packet后会从”ack queue”移除相应的packet。

6、 倘使传输进度中, 有某个datanode出现了故障,
那么当前的pipeline会被关闭,
现寿终正寝障的datanode会从脚下的pipeline中移除,
剩余的block会继续剩下的datanode中延续以pipeline的花样传输,
同时Namenode会分配一个新的datanode, 保持replicas设定的数额。

7、 客户端完毕数据的写入后, 会对数据流调用close()方法, 关闭数据流;

8、 只要写入了dfs.replication.min的复本数( 默许为1) ,
写操作就会成功, 并且那么些块可以在集群中异步复制, 直到达到其目标复本数(
dfs. replication的默许值为3) , 因为namenode已经清楚文书由哪些块组成,
所以它在回去成功前只需求拭目以待数据块举办最少量的复制。


引言

HDFS写过程:

image.png

1、 使用HDFS提供的客户端Client, 向远程的Namenode发起RPC请求;

2、 Namenode会视景况重临文件的一对或者全体block列表, 对于每个block,
Namenode都会再次回到有该block拷贝的DataNode地址;

3、 客户端Client会拔取离客户端近年来的DataNode来读取block;
假设客户端本身就是DataNode, 那么将从地面向来获取数据;

4、 读取完当前block的数额后, 关闭当前的DataNode链接,
并为读取下一个block寻找最佳的DataNode;

5、 当读完列表block后, 且文件读取还平昔不终结,
客户端会继续向Namenode获取下一批的block列表;

6、 读取完一个block都会举办checksum验证, 若是读取datanode时现身谬误,
客户端会通告Namenode,
接下来再从下一个持有该block拷贝的datanode继续读。

  Hadoop提供的HDFS布式文件存储系统,提供了依据thrift的客户端访问辅助,然而因为Thrift自身的造访特点,在高并发的走访景况下,thrift自身结构可能将会成为HDFS文件存储系统的一个性质瓶颈。大家先来看一下一不选拔Thrfit格局访问HDFS文件系统的业务流程。

一、HDFS文件读取流程

  图片 1

流程表达:

  1. 使用HDFS提供的客户端支出库Client,向远程的Namenode发起RPC请求;
  2. Namenode会视景况重临文件的一部分仍旧全部block列表,对于每个block,Namenode都会回去有该block拷贝的DataNode地址;
  3. 客户端支付库Client会选用离客户端最相仿的DataNode来读取block;假设客户端本身就是DataNode,那么将从本土一贯得到数据.
  4. 读取完当前block的数量后,关闭与方今的DataNode连接,并为读取下一个block寻找最佳的DataNode;
  5. 当读完列表的block后,且文件读取还尚无甘休,客户端支付库会继续向Namenode获取下一批的block列表。
  6. 读取完一个block都会展开checksum验证,假如读取datanode时出现错误,客户端会公告Namenode,然后再从下一个负有该block拷贝的datanode继续读。

二、HDFS文件写入流程

图片 2

流程表明:

  1. 行使HDFS提供的客户端支出库Client,向远程的Namenode发起RPC请求;
  2. Namenode会检查要开创的文本是或不是业已存在,创设者是或不是有权力进行操作,成功则会为文件创制一个笔录,否则会让客户端抛出格外;

  3. 客户端开头写入文件的时候,开发库会将文件切分成几个packets,并在里边以多少队列”data
    queue”的款式管理那么些packets,并向Namenode申请新的blocks,获取用来存储replicas的适用的datanodes列表,
    列表的尺寸根据在Namenode中对replication的装置而定。
  4. 初始以pipeline(管道)的款式将packet写入所
    有的replicas中。开发库把packet以流的措施写入首个datanode,该datanode把该packet存储之后,再将其传递给在此
    pipeline中的下一个datanode,直到最终一个datanode,那种写多少的法子呈流水线的形式。
  5. 说到底一个datanode成功存储之后会回去一个ack
    packet,在pipeline里传递至客户端,在客户端的支出库内部维护着”ack
    queue”,成功接收datanode重临的ack packet后会从”ack
    queue”移除相应的packet。
  6. 如若传输进程中,有某个datanode出现了故障,那么当前的pipeline会被关闭,出现故障的datanode会从脚下的pipeline中移除,
    剩余的block会继续剩下的datanode中继承以pipeline的款式传输,同时Namenode会分配一个新的datanode,保持
    replicas设定的多寡。

三、关键词

  HDFSClient通过文件IO操作最终促成是通过直接访问DataNode举行。

四、Thrift的拜访流程:臆想版

  图片 3

流程表达:

1.ThriftClient客户端将操作命令传给ThriftServer。

2.ThriftServer调用HDFSClient接口API已毕HDFS读写操作,操作流程如和三所示。

五、疑问

  与DataNode暴发数据沟通的究竟是ThriftServer仍然ThriftClient,如果是ThriftServer,那么五个ThriftClient并行访问时,ThriftServer必将成为HDFS访问的性质瓶颈;假使是ThriftClient直接访问DataNode,那么理论依照何在呢?

图片 4

六、示例程序

  上面是一个按照Thrift达成的HDFS客户端程序,完结了文本的拜会和成立和读取

  1 // HdfsDemo.cpp : Defines the entry point for the console application.
  2 //
  3 
  4 #include "stdafx.h"
  5 #include <iostream>
  6 #include <string>
  7 #include <boost/lexical_cast.hpp>
  8 #include <protocol/TBinaryProtocol.h>
  9 #include <transport/TSocket.h>
 10 #include <transport/TTransportUtils.h>
 11 #include "ThriftHadoopFileSystem.h"
 12 
 13 #ifndef _WIN32_WINNT
 14 #define _WIN32_WINNT 0x0500
 15 #endif 
 16 using namespace std;
 17 using namespace apache::thrift;
 18 using namespace apache::thrift::protocol;
 19 using namespace apache::thrift::transport;
 20 
 21 int _tmain(int argc, _TCHAR* argv[])
 22 {
 23     if (argc < 3) 
 24     {
 25         std::cerr << "Invalid arguments!\n" << "Usage: DemoClient host port" << std::endl;
 26         //return -1;
 27     }
 28     boost::shared_ptr<TTransport> socket(new TSocket("192.168.230.133", 55952));//boost::lexical_cast<int>(argv[2])));
 29     boost::shared_ptr<TTransport> transport(new TBufferedTransport(socket));
 30     boost::shared_ptr<TProtocol> protocol(new TBinaryProtocol(transport));
 31     ThriftHadoopFileSystemClient client(protocol);
 32     try 
 33     {
 34         transport->open();
 35         Pathname path;
 36         //01_create directory
 37         path.__set_pathname("/user/hadoop");
 38         if(client.exists(path) == true)
 39         {
 40             printf("path is exists.\r\n");
 41         }
 42         else
 43         {
 44             printf("path is not exists.");
 45             //return 0;
 46         }
 47         //02_put file
 48         Pathname filepath;
 49         filepath.__set_pathname("/user/hadoop/in/test1.txt");
 50         /*
 51         FILE* localfile = fopen("E:\\project\\Hadoop\\HdfsDemo\\Debug\\hello.txt","rb");
 52         if (localfile == NULL)
 53         {
 54             transport->close();
 55             return 0;
 56         }
 57         ThriftHandle hdl;
 58         client.create(hdl,filepath);
 59         while (true)
 60         {
 61             char data[1024];
 62             memset(data,0x00,sizeof(data));
 63             size_t Num = fread(data,1,1024,localfile);
 64             if (Num <= 0)
 65             {
 66                 break;
 67             }
 68             client.write(hdl,data);
 69         }
 70         fclose(localfile);
 71         client.close(hdl);
 72         */
 73         //03_get file
 74         /*
 75         ThriftHandle hd2;
 76         FileStatus stat1;
 77         client.open(hd2,filepath);
 78         client.stat(stat1,filepath);
 79         int index = 0;
 80         while(true)
 81         {
 82             string data;
 83             if (stat1.length <= index)
 84             {
 85                 break;
 86             }
 87             client.read(data,hd2,index,1024);
 88 
 89             index += data.length();
 90             printf("==%s\r\n",data.c_str());
 91         }
 92         client.close(hd2);
 93         */
 94 
 95         //04_list files
 96         std::vector<FileStatus> vFileStatus;
 97         client.listStatus(vFileStatus,path);
 98         for (int i=0;i<vFileStatus.size();i++)
 99         {
100             printf("i=%d file=%s\r\n",i,vFileStatus[i].path.c_str());
101         }
102         transport->close();
103     } catch (const TException &tx) {
104     std::cerr << "ERROR: " << tx.what() << std::endl;
105     }
106     getchar();
107     return 0;
108 }

 七、源码分析

  1.文件成立:

 1     /**
 2       * Create a file and open it for writing, delete file if it exists
 3       */
 4     public ThriftHandle createFile(Pathname path, 
 5                                    short mode,
 6                                    boolean  overwrite,
 7                                    int bufferSize,
 8                                    short replication,
 9                                    long blockSize) throws ThriftIOException {
10       try {
11         now = now();
12         HadoopThriftHandler.LOG.debug("create: " + path +
13                                      " permission: " + mode +
14                                      " overwrite: " + overwrite +
15                                      " bufferSize: " + bufferSize +
16                                      " replication: " + replication +
17                                      " blockSize: " + blockSize);
18         FSDataOutputStream out = fs.create(new Path(path.pathname), 
19                                            new FsPermission(mode),
20                                            overwrite,
21                                            bufferSize,
22                                            replication,
23                                            blockSize,
24                                            null); // progress
25         long id = insert(out);
26         ThriftHandle obj = new ThriftHandle(id);
27         HadoopThriftHandler.LOG.debug("created: " + path + " id: " + id);
28         return obj;
29       } catch (IOException e) {
30         throw new ThriftIOException(e.getMessage());
31       }
32     }

  ThriftHandle的双面到底是什么人呢?是ThriftClient和DataNode?仍旧ThriftServer与DataNode?

  2.文书写入

 1     public boolean write(ThriftHandle tout, String data) throws ThriftIOException {
 2       try {
 3         now = now();
 4         HadoopThriftHandler.LOG.debug("write: " + tout.id);
 5         FSDataOutputStream out = (FSDataOutputStream)lookup(tout.id);
 6         byte[] tmp = data.getBytes("UTF-8");
 7         out.write(tmp, 0, tmp.length);
 8         HadoopThriftHandler.LOG.debug("wrote: " + tout.id);
 9         return true;
10       } catch (IOException e) {
11         throw new ThriftIOException(e.getMessage());
12       }
13     }

  写入时依赖的如故ThriftHandle?  

  3.文本读取

 1     /**
 2      * read from a file
 3      */
 4     public String read(ThriftHandle tout, long offset,
 5                        int length) throws ThriftIOException {
 6       try {
 7         now = now();
 8         HadoopThriftHandler.LOG.debug("read: " + tout.id +
 9                                      " offset: " + offset +
10                                      " length: " + length);
11         FSDataInputStream in = (FSDataInputStream)lookup(tout.id);
12         if (in.getPos() != offset) {
13           in.seek(offset);
14         }
15         byte[] tmp = new byte[length];
16         int numbytes = in.read(offset, tmp, 0, length);
17         HadoopThriftHandler.LOG.debug("read done: " + tout.id);
18         return new String(tmp, 0, numbytes, "UTF-8");
19       } catch (IOException e) {
20         throw new ThriftIOException(e.getMessage());
21       }
22     }

 八、遗留难点

  ThriftHandle可以当做是Socket连接句柄,但是她的双边到底是何人呢?固然是ThriftClient代表的客户端则一切OK,那么自己该怎么样验证呢?存疑待考!

 

网站地图xml地图