Скажем, у меня есть световой кадр df1 с несколькими столбцами (среди которых идентификатор столбца) и фрейм данных df2 с двумя столбцами: "id" и "other".
Есть ли способ репликации следующей команды
sqlContext.sql("SELECT df1.*, df2.other FROM df1 JOIN df2 ON df1.id = df2.id")
используя только функции pyspark, такие как join(), select() и т.п.?
Мне нужно реализовать это объединение в функции, и я не хочу, чтобы был вынужден использовать sqlContext в качестве параметра функции.
Спасибо!