5.1 确定Job基线

操作场景

确定Job基线是调优的基础,一切调优项效果的检查,都是通过和基线数据做对比来获得。

  • 充分利用集群资源
  • reduce阶段尽量放在一轮
  • 每个task的执行时间要合理

操作步骤

原则一:充分利用集群资源

Job运行时,会让所有的节点都有任务处理,且处于繁忙状态,这样才能保证资源充分利用,任务的并发度达到最大。可以通过调整处理的数据量大小,以及调整map和reduce个数来实现。

Reduce个数的控制使用“mapreduce.job.reduces”。

Map个数取决于使用了哪种InputFormat,以及待处理的数据文件是否可分割。默认的TextFileInputFormat将根据block的个数来分配map数(一个block一个map)。通过如下配置参数进行调整。

参数名 描述
mapreduce.input.fileinputformat.split.maxsize客户端参数 用户定义的分片大小的设置及每个文件block大小的设置,可以计算分片的大小。计算公式如下:splitSize = Math.max(minSize, Math.min(maxSize, blockSize)),如果maxSize设置大于blockSize,那么每个block就是一个分片,否则就会将一个block文件分隔为多个分片,如果block中剩下的一小段数据量小于splitSize,还是认为它是独立的分片。
mapreduce.input.fileinputformat.split.minsize客户端参数 可以设置数据分片的数据最小值。
CombineTextInputFormat 解决大量小文件map的问题,将多个小文件合并为一个切片,减少提交任务时的任务数。Job.setInputFormatClass(CombineTextInputFormat.class)

原则二:控制reduce阶段在一轮中完成

避免以下两种场景:

  • 大部分的reduce在第一轮运行完后,剩下唯一一个reduce继续运行。 这种情况下,这个reduce的执行时间将极大影响这个job的运行时间。因此需要将reduce个数减少。
  • 所有的map运行完后,只有个别节点有reduce在运行。 这时候集群资源没有得到充分利用,需要增加reduce的个数以便每个节点都有任务处理。

原则三:每个task的执行时间要合理

如果一个job,每个map或reduce的执行时间只有几秒钟,就意味着这个job的大部分时间都消耗在task的调度和进程启停上了,因此需要增加每个task处理的数据大小。建议一个task处理时间为1分钟。

results matching ""

    No results matching ""