Я пытаюсь понять, как разбиение выполняется в Apache Spark. Можете ли вы, ребята, помочь?
Вот сценарий:
- мастер и два узла с 1 ядром каждый
- файл
count.txt
размером 10 МБ
Сколько разделов создают следующие файлы?
rdd = sc.textFile(count.txt)
Значит ли размер файла влияет на количество разделов?