У меня под рукой есть постановка задачи, в которой я хочу отключить таблицу в spark-sql/pyspark. Я просмотрел документацию и увидел, что есть поддержка только для pivot, но пока нет поддержки un-pivot. Есть ли способ, которым я могу достичь этого?
Пусть моя исходная таблица будет выглядеть так:
когда я поворачиваю это в pyspark, используя нижеприведенную команду:
df.groupBy("A").pivot("B").sum("C")
Я получаю это в качестве вывода:
Теперь я хочу отменить поворотную таблицу. В общем, эта операция может/не может привести к исходной таблице на основе того, как я повернул исходную таблицу.
Spark-sql на данный момент не предоставляет встроенную поддержку для разворачивания. Есть ли способ, которым я могу достичь этого?