美文网首页大数据入门
hdfs的block为什么设置成128M ?

hdfs的block为什么设置成128M ?

作者: 我要进大厂 | 来源:发表于2020-01-19 21:25 被阅读0次

最近看到这个面试问题,CSDN搜了半天也没有确切答案,查询资料思考后总结如下:

我们在HDFS中存储数据是以块(block)的形式存放在DataNode中的,块(block)的大小可以通过设置dfs.blocksize来实现;

在Hadoop2.x的版本中,文件块的默认大小是128M,老版本中默认是64M;

目录

一、为什么HDFS中块(block)不能设置太大,也不能设置太小?

二、 HDFS中块(block)的大小为什么设置为128M?

寻址时间:HDFS中找到目标文件块(block)所需要的时间。

原理:

文件块越大,寻址时间越短,但磁盘传输时间越长;

文件块越小,寻址时间越长,但磁盘传输时间越短。

一、为什么HDFS中块(block)不能设置太大,也不能设置太小?

1. 如果块设置过大,

并行处理问题:
block的大小太大的话,block个数就少,一个block对应一个切片,一个map task。
一个map任务处理一个块,那任务数就变少了,作业运行速度也就变慢了。

Map崩溃问题:
系统需要重新启动,启动过程需要重新加载数据,数据块越大,数据加载时间越长,系统恢复过程越长。

2. 如果块设置过小,

   一方面存放大量小文件会占用NameNode中大量内存来存储元数据,而NameNode的内存是有限的,不可取;

另一方面文件块过小,寻址时间增大,导致程序一直在找block的开始位置。

因而,块适当设置大一些,减少寻址时间,那么传输一个由多个块组成的文件的时间主要取决于磁盘的传输速率。

二、 HDFS中块(block)的大小为什么设置为128M?

  1. HDFS中平均寻址时间大概为10ms;

  2. 经过前人的大量测试发现,寻址时间为传输时间的1%时,为最佳状态;

    所以最佳传输时间为10ms/0.01=1000ms=1s

  3. 目前磁盘的传输速率普遍为100MB/s;

    计算出最佳block大小:100MB/s x 1s = 100MB

    所以我们设定block大小为128MB。

ps:实际在工业生产中,磁盘传输速率为200MB/s时,一般设定block大小为256MB

    磁盘传输速率为400MB/s时,一般设定block大小为512MB

————————————————
版权声明:本文为CSDN博主「攻城狮Kevin」的原创文章,遵循 CC 4.0 BY-SA 版权协议,转载请附上原文出处链接及本声明。
原文链接:https://blog.csdn.net/wx1528159409/article/details/84260023

相关文章

网友评论

    本文标题:hdfs的block为什么设置成128M ?

    本文链接:https://www.haomeiwen.com/subject/vxldzctx.html