Apache Spark - присвоить результат UDF нескольким столбцам данных

Я использую pyspark, загружая большой файл csv в dataframe с помощью spark-csv, и в качестве этапа предварительной обработки мне нужно применить множество операций к данным, доступным в одном из столбцов (который содержит json string). Это вернет значения X, каждый из которых необходимо сохранить в отдельном столбце.

Эта функциональность будет реализована в UDF. Однако я не уверен, как вернуть список значений из этого UDF и передать их в отдельные столбцы. Ниже приведен простой пример:

(...)
from pyspark.sql.functions import udf
def udf_test(n):
    return [n/2, n%2]

test_udf=udf(udf_test)


df.select('amount','trans_date').withColumn("test", test_udf("amount")).show(4)

Это создает следующее:

+------+----------+--------------------+
|amount|trans_date|                test|
+------+----------+--------------------+
|  28.0|2016-02-07|         [14.0, 0.0]|
| 31.01|2016-02-07|[15.5050001144409...|
| 13.41|2016-02-04|[6.70499992370605...|
| 307.7|2015-02-17|[153.850006103515...|
| 22.09|2016-02-05|[11.0450000762939...|
+------+----------+--------------------+
only showing top 5 rows

Каким будет лучший способ сохранить два значения (в этом примере), возвращаемые udf в отдельных столбцах? Сейчас они набираются как строки:

df.select('amount','trans_date').withColumn("test", test_udf("amount")).printSchema()

root
 |-- amount: float (nullable = true)
 |-- trans_date: string (nullable = true)
 |-- test: string (nullable = true)

Ответ 1

Невозможно создать несколько столбцов верхнего уровня из одного вызова UDF, но вы можете создать новый struct. Для этого требуется UDF с указанным returnType:

from pyspark.sql.functions import udf
from pyspark.sql.types import *

schema = StructType([
    StructField("foo", FloatType(), False),
    StructField("bar", FloatType(), False)
])

def udf_test(n):
    return (n / 2, n % 2) if n and n != 0.0 else (float('nan'), float('nan'))

test_udf = udf(udf_test, schema)
df = sc.parallelize([(1, 2.0), (2, 3.0)]).toDF(["x", "y"])

foobars = df.select(test_udf("y").alias("foobar"))
foobars.printSchema()
## root
##  |-- foobar: struct (nullable = true)
##  |    |-- foo: float (nullable = false)
##  |    |-- bar: float (nullable = false)

Вы также сглаживаете схему с помощью простого select:

foobars.select("foobar.foo", "foobar.bar").show()
## +---+---+
## |foo|bar|
## +---+---+
## |1.0|0.0|
## |1.5|1.0|
## +---+---+

См. также Вывести несколько столбцов из одного столбца в Spark DataFrame