У меня возникла проблема с Hadoop, производящим слишком много файлов журнала в $HADOOP_LOG_DIR/userlogs (файловая система Ext3 допускает только 32000 подкаталогов), которая похожа на ту же проблему в этом вопросе: Ошибка в Hadoop MapReduce
Мой вопрос: кто-нибудь знает, как настроить Hadoop для свертывания журнала или иным образом предотвратить это? Я пытаюсь избежать установки свойств "mapred.userlog.retain.hours" и/или "mapred.userlog.limit.kb", потому что я хочу сохранить файлы журнала.
Я также надеялся настроить это в log4j.properties, но, глядя на источник Hadoop 0.20.2, он записывает непосредственно в logfiles вместо фактического использования log4j. Возможно, я не понимаю, как он полностью использует log4j.
Приветствуются любые предложения или разъяснения.