日期:2014-05-16  浏览次数:20829 次

[综合]Apache Hadoop 2.2.0集群安装(2)[翻译]

NodeManager节点健康监控

hadoop提供一个检测一个节点健康状态的机制,那就是管理员可以配置NodeManager去周期性执行一个脚本。

管理员可以在这个脚本中做任何的状态监控从而决定此节点是否健康。如果某节点不健康了,那么他们会有一个标准的错误输出,NodeManager的脚本周期性检测输出,如果节点输出中包含了ERROR字符串,那么此节点会被上报为unhealthy?,并且此节点会被ResourceManager放入黑名单。从而将不会有task被分配到此节点上,不过NodeManager?仍然会健康此节点,当此节点正常之后他将会被从ResourceManager?的黑名单中自动移除,节点的运行状况取决于输出,当他不正常的时候他仍然会在ResourceManager上展示。

如下参数为节点状况健康脚本的配置conf/yarn-site.xml:

Parameter Value Notes
yarn.nodemanager.health-checker.script.path Node health script Script to check for node's health status.
yarn.nodemanager.health-checker.script.opts Node health script options Options for script to check for node's health status.
yarn.nodemanager.health-checker.script.interval-ms Node health script interval Time interval for running health script.
yarn.nodemanager.health-checker.script.timeout-ms Node health script timeout interval Timeout for health script execution.

当一些物理磁盘出现坏道时监控程序不会提示错误。NodeManager?有能力对物理磁盘做周期性检测(特别是nodemanager-local-dirs and nodemanager-log-dirs)当目录损坏数达到配置的阀值(yarn.nodemanager.disk-health-checker.min-healthy-disks配置的)之后整个节点就会被标记为不正常的。同时这些信息也会上报给资源管理器(resource manager),检测脚本也会检测启动盘。

?

Slaves文件

通常你选择了一个机器做NameNode?,一个机器做ResourceManager,其他的做DataNode和NodeManager?也就是从节点。

把所有的从节点的ip或者hostname写在conf/slaves文件里,每个机器一行。

?

日志

Hadoop 用apache的log4j去访问Apache Commons Logging框架去记录日志。去修改conf/log4j.properties?可以自定义自己的日志输出。

?

操作