Есть ли разница в семантике между df.na().drop()
и df.filter(df.col("onlyColumnInOneColumnDataFrame").isNotNull() && !df.col("onlyColumnInOneColumnDataFrame").isNaN())
, где df
- Apache Spark Dataframe
?
Или я должен считать это ошибкой, если первый из них НЕ возвращает null
(а не значение String null, а просто значение null
) в столбце onlyColumnInOneColumnDataFrame
, а второй -?
EDIT: добавлен !isNaN()
. onlyColumnInOneColumnDataFrame
является единственным столбцом в данном Dataframe
. Пусть говорят, что это тип Integer
.