При использовании spark-1.6.2 и pyspark, я увидел это:
где вы видите, что активные задачи - это отрицательное число (разность общих задач из завершенных задач).
Каков источник этой ошибки?
Node, что у меня много исполнителей. Тем не менее, похоже, что есть задача, которая, кажется, была бездействующей (я не вижу никакого прогресса), а другая идентичная задача выполнена нормально.
Также это связано: mail Я могу подтвердить, что многие задачи создаются, так как я использую 1k или 2k исполнителей.
Ошибка, которую я получаю, немного отличается:
16/08/15 20:03:38 ERROR LiveListenerBus: Dropping SparkListenerEvent because no remaining room in event queue. This likely means one of the SparkListeners is too slow and cannot keep up with the rate at which tasks are being started by the scheduler.
16/08/15 20:07:18 WARN TaskSetManager: Lost task 20652.0 in stage 4.0 (TID 116652, myfoo.com): FetchFailed(BlockManagerId(61, mybar.com, 7337), shuffleId=0, mapId=328, reduceId=20652, message=
org.apache.spark.shuffle.FetchFailedException: java.util.concurrent.TimeoutException: Timeout waiting for task.