写在前面

本文隶属于专栏《1000个问题搞定大数据技术体系》,该专栏为笔者原创,引用请注明来源,不足和错误之处请在评论区帮忙指出,谢谢!

本专栏目录结构和文献引用请见1000个问题搞定大数据技术体系

解答

1. 文件量相对不大,不过单文件会比较大。
2. 文件中间的内容不可以被篡改,只能添加在尾部。
3. 只能对文件进行创建、删除、重命名、修改属性以及在尾部添加等操作。

在这里插入图片描述

补充

如何从传统的文件系统发展到 HDFS 这样的分布式文件系统?

传统的文件系统在存储数据时,会遇到两个问题,具体如下:

  1. 当数据量越来越大时,会遇到存储瓶颈,就需要扩容;
  2. 由于文件过大,上传和下载都非常耗时。

为了解决传统文件系统遇到的存储瓶颈问题,首先考虑的就是扩容,扩容有两种形式,

  1. 一种是级向扩容,即增加磁盘和内存;
  2. 另一种是横向扩容,即增加服务器数量。

通过扩大规模达到分布式存储,这种存储形式就是分布式文件存储的难形。

解决了分布式文件系统的存储瓶颈问题之后,还需要解决文件上传与下载的效率问题。

常规的解决办法是将一个大的文件切分成多个数据块,将数据块以并行的方式进行存储。

这里以30G的文本文件为例,将其切分成3块,每块大小10G(实除上每个数据块都很小, 只有100M左右),将其存储在文件系统中, 文件通过数据块分别存储在服务器集群中.

HDFS 默认是 128 M

那么如何获取一个完整的文件呢?

针对这个问题,就需要再考虑增加一台服务器,专门用来记录文件被切割后的数据块信息以及数据块的存储位置信息

对应 HDFS 的 NameNode

存储数据块的服务器中突然有一台机器岩机,就无法正常的获取文件了,这个问题被称为单点故障。针对这个问题,可以采用备份的机制解决。

对应 HDFS 中的多副本机制(默认 3 副本),存储数据块的服务器对应 HDFS 中的 DataNode。

上一篇 下一篇