大数据开发基础之HDFS参数调优步骤分享

1.NameNode数据目录

dfs.name.dir, dfs.namenode.name.dir

指定一个本地文件系统路径,决定NN在何处存放fsimage和editlog文件。可以通过逗号分隔指定多个路径. 目前我们的产线环境只配大数据培训置了一个目录,并存放在了做了RAID1或RAID5的磁盘上。

2.DataNode数据目录

dfs.data.dir, dfs.datanode.data.dir

指定DN存放块数据的本地盘路径,可以通过逗号分隔指定多个路径。在生产环境可能会在一个DN上挂多块盘。

3.数据块的副本数

dfs.replication

数据块的副本数,默认值为3

4.数据块大小

dfs.block.size

HDFS数据块的大小,默认为128M,目前我们产线环境配置的是1G

5.HDFS做均衡时使用的最大带宽

dfs.datanode.balance.bandwidthPerSec

HDFS做均衡时使用的最大带宽,默认为1048576,即1MB/s,对大多数千兆甚至万兆带宽的集群来说过小。不过该值可以在启动balancer脚本时再设置,可以不修改集群层面默认值。目前目前我们产线环境设置的是50M/s~100M/s

6.磁盘可损坏数

dfs.datanode.failed.volumes.tolerated

DN多少块盘损坏后停止服务,默认为0,即一旦任何磁盘故障DN即关闭。对盘较多的集群(例如每DN12块盘),磁盘故障是常态,通常可以将该值设置为1或2,避免频繁有DN下线。

7.数据传输连接数

dfs.datanode.max.xcievers

DataNode可以同时处理的数据传输连接数,即指定在DataNode内外传输数据使用的最大线程数。官方将该参数的命名改为dfs.datanode.max.transfer.threads,默认值为4096,推荐值为8192,我们产线环境也是8192

8.NameNode处理RPC调用的线程数

dfs.namenode.handler.count

NameNode中用于处理RPC调用的线程数,默认为10。对于较大的集群和配置较好的服务器,可适当增加这个数值来提升NameNode RPC服务的并发度,该参数的建议值:集群的自然对数 * 20

python -c 'import math ; print int(math.log(N) * 20)'

我们800+节点产线环境配置的是200~500之间

9.NameNode处理datanode 上报数据块和心跳的线程数

dfs.namenode.service.handler.count

用于处理datanode 上报数据块和心跳的线程数量,与dfs.namenode.handler.count算法一致

10.DataNode处理RPC调用的线程数

dfs.datanode.handler.count

DataNode中用于处理RPC调用的线程数,默认为3。可适当增加这个数值来提升DataNode RPC服务的并发度,线程数的提高将增加DataNode的内存需求,因此,不宜过度调整这个数值。我们产线环境设置的是10

11.DataNode最大传输线程数

dfs.datanode.max.xcievers

最大传输线程数 指定在 DataNode 内外传输数据使用的最大线程数。

这个值是指定 datanode 可同時处理的最大文件数量,推荐将这个值调大,默认是256,最大值可以配置为65535,我们产线环境配置的是8192。

12.读写数据时的缓存大小

io.file.buffer.size

–设定在读写数据时的缓存大小,应该为硬件分页大小的2倍

我们产线环境设置的为65536 ( 64K)

13.冗余数据块删除

在日常维护hadoop集群的过程中发现这样一种情况:

某个节点由于网络故障或者DataNode进程死亡,被NameNode判定为死亡,HDFS马上自动开始数据块的容错拷贝;当该节点重新添加到集群中时,由于该节点上的数据其实并没有损坏,所以造成了HDFS上某些block的备份数超过了设定的备份数。通过观察发现,这些多余的数据块经过很长的一段时间才会被完全删除掉,那么这个时间取决于什么呢?

该时间的长短跟数据块报告的间隔时间有关。Datanode会定期将当前该结点上所有的BLOCK信息报告给NameNode,参数dfs.blockreport.intervalMsec就是控制这个报告间隔的参数。

hdfs-site.xml文件中有一个参数:

<property>

<name>dfs.blockreport.intervalMsec</name>

<value>3600000</value>

<description>Determines block reporting interval in milliseconds.</description>

</property>

其中3600000为默认设置,3600000毫秒,即1个小时,也就是说,块报告的时间间隔为1个小时,所以经过了很长时间这些多余的块才被删除掉。通过实际测试发现,当把该参数调整的稍小一点的时候(60秒),多余的数据块确实很快就被删除了

14.新增块延迟汇报

当datanode上新写完一个块,默认会立即汇报给namenode。在一个大规模Hadoop集群上,每时每刻都在写数据,datanode上随时都会有写完数据块然后汇报给namenode的情况。因此namenode会频繁处理datanode这种快汇报请求,会频繁地持有锁,其实非常影响其他rpc的处理和响应时间。

通过延迟快汇报配置可以减少datanode写完块后的块汇报次数,提高namenode处理rpc的响应时间和处理速度。

<property>

<name>dfs.blockreport.incremental.intervalMsec</name>

<value>300</value>

</property>

我们产线环境HDFS集群上此参数配置为500毫秒,就是当datanode新写一个块,不是立即汇报给namenode,而是要等待500毫秒,在此时间段内新写的块一次性汇报给namenode。

15.增大同时打开的文件描述符和网络连接上限

使用ulimit命令将允许同时打开的文件描述符数目上限增大至一个合适的值。同时调整内核参数net.core.somaxconn网络连接数目至一个足够大的值。

补充:net.core.somaxconn的作用

net.core.somaxconn是Linux中的一个kernel参数,表示socket监听(listen)的backlog上限。什么是backlog呢?backlog就是socket的监听队列,当一个请求(request)尚未被处理或建立时,它会进入backlog。而socket server可以一次性处理backlog中的所有请求,处理后的请求不再位于监听队列中。当server处理请求较慢,以至于监听队列被填满后,新来的请求会被拒绝。在Hadoop 1.0中,参数ipc.server.listen.queue.size控制了服务端socket的监听队列长度,即backlog长度,默认值是128。而Linux的参数net.core.somaxconn默认值同样为128。当服务端繁忙时,如NameNode或JobTracker,128是远远不够的。这样就需要增大backlog,例如我们的集群就将ipc.server.listen.queue.size设成了32768,为了使得整个参数达到预期效果,同样需要将kernel参数net.core.somaxconn设成一个大于等于32768的值。

(0)

相关推荐

  • Hadoop核心源码剖析系列(一)

    第一时间获取好内容 关于一门技术源码的解读是很令人头疼的一件事情,很多小伙伴都不知道从何入手,作为一名程序猿,我也是这样经历过来的,在没人指导的情况下不断碰壁,那种想入而不得的感觉相当难受,希望通过这 ...

  • hdfs的读写流程分析总结

    HDFS采用的是master/slaves这种主从的结构模型管理数据,这种结构模型主要由四个部分组成,分别是Client(客户端).Namenode(名称节点).Datanode(数据节点)和Seco ...

  • BigData:大数据开发的简介、核心知识(linux基础+Java/Python编程语言+Hadoop{HDFS、HBase、Hive}+Docker)、经典场景应用之详细攻略

    BigData:大数据开发的简介.核心知识(linux基础+Java/Python编程语言+Hadoop{HDFS.HBase.Hive}+Docker).经典场景应用之详细攻略 BigData:大数 ...

  • 12个人工智能与大数据开发注意点

    人工智能是近年来科技发展的重要方向,在大数据时代,对数据采集.挖掘.应用的技术越来越受到瞩目.在人工智能和大数据的开发过程中,有哪些特别需要注意的要点? 人工智能领域的算法大师.华盛顿大学教授Pedr ...

  • 大数据开发面试必知必会的SQL 30题!!!

    原文链接: https://blog.csdn.net/weixin_45366499/article/details/116355430 作者: 一蓑烟雨任平生 (1)查询每个区域的用户数 (2)查 ...

  • 大数据开发语言怎么选?Scala 还是 Go

    介绍 自从我参与DevOps和大数据以来,我一直在使用两种出色的但完全不同的编程语言:Go和Scala. Scala是一种较旧且更成熟的编程语言,已在并发编程和大数据处理等领域找到了自己的定位. 另一 ...

  • 大数据开发面试之数据仓库

    数据仓库的定义? 首先,用于支持决策,面向分析型数据处理:其次,对多个异构的数据源有效集成,集成后按照主题进行重组,并包含历史数据,而且大数据培训存放在数据仓库中的数据一般不再修改. 数据仓库(Dat ...

  • 大数据开发技术之Spark SQL的多种使用方法

    Spark SQL支持多种数据源,如JDBC.HDFS.HBase.它的内部组件,如SQL的语法解析器.分析器等支持重定义进行扩展,能更好的满足不同的业务场景.与Spark Core无缝集成,提供了D ...

  • java开发技术之tomcat的参数调优

    一般最常做的更改,就是修改服务器的端口,也就是server.xml里的Connector部分.典型如下图所示: 其实,大部分优化,也是在Connector标签之内,从端口.并发到线程,都可以在这里配置 ...

  • 大数据开发技术之Spark Job物理执行解析

    一个复杂 job 逻辑执行图: 代码贴在本章最后.给定这样一个复杂数据依赖图,如何合理划分 stage,并未确定 task 的类型和个数? 一个直观想法是将前后关联的 RDDs 组成一个 stage, ...

  • 大数据治理基础

    "信息"很大一部分都是由"数据"组成的.所以数据资产管理成为了企业或者组织采取的管理活动,用于保证数据资产的安全和完整,有效地利用起来就可以带来经济效益.数据资 ...