В Python Pandas, как лучше всего проверить, имеет ли DataFrame одно (или более) значение NaN?
Я знаю о функции pd.isnan, но она возвращает DataFrame логических значений для каждого элемента. Этот пост прямо здесь не совсем отвечает на мой вопрос.
В Python Pandas, как лучше всего проверить, имеет ли DataFrame одно (или более) значение NaN?
Я знаю о функции pd.isnan, но она возвращает DataFrame логических значений для каждого элемента. Этот пост прямо здесь не совсем отвечает на мой вопрос.
jwilner ответ включен. Я изучал, чтобы увидеть, есть ли более быстрый вариант, поскольку, по моему опыту, суммирование плоских массивов (как ни странно) происходит быстрее, чем подсчет. Этот код выглядит быстрее:
df.isnull().values.any()
Например:
In [2]: df = pd.DataFrame(np.random.randn(1000,1000))
In [3]: df[df > 0.9] = pd.np.nan
In [4]: %timeit df.isnull().any().any()
100 loops, best of 3: 14.7 ms per loop
In [5]: %timeit df.isnull().values.sum()
100 loops, best of 3: 2.15 ms per loop
In [6]: %timeit df.isnull().sum().sum()
100 loops, best of 3: 18 ms per loop
In [7]: %timeit df.isnull().values.any()
1000 loops, best of 3: 948 µs per loop
df.isnull().sum().sum() немного медленнее, но, конечно, имеет дополнительную информацию - номер NaNs.
У вас есть несколько вариантов.
import pandas as pd
import numpy as np
df = pd.DataFrame(np.random.randn(10,6))
# Make a few areas have NaN values
df.iloc[1:3,1] = np.nan
df.iloc[5,3] = np.nan
df.iloc[7:9,5] = np.nan
Теперь фрейм данных выглядит примерно так:
0 1 2 3 4 5
0 0.520113 0.884000 1.260966 -0.236597 0.312972 -0.196281
1 -0.837552 NaN 0.143017 0.862355 0.346550 0.842952
2 -0.452595 NaN -0.420790 0.456215 1.203459 0.527425
3 0.317503 -0.917042 1.780938 -1.584102 0.432745 0.389797
4 -0.722852 1.704820 -0.113821 -1.466458 0.083002 0.011722
5 -0.622851 -0.251935 -1.498837 NaN 1.098323 0.273814
6 0.329585 0.075312 -0.690209 -3.807924 0.489317 -0.841368
7 -1.123433 -1.187496 1.868894 -2.046456 -0.949718 NaN
8 1.133880 -0.110447 0.050385 -1.158387 0.188222 NaN
9 -0.513741 1.196259 0.704537 0.982395 -0.585040 -1.693810
df.isnull().any().any() - возвращает логическое значение Вы знаете о isnull() который возвращал бы такой фрейм данных:
0 1 2 3 4 5
0 False False False False False False
1 False True False False False False
2 False True False False False False
3 False False False False False False
4 False False False False False False
5 False False False True False False
6 False False False False False False
7 False False False False False True
8 False False False False False True
9 False False False False False False
Если вы сделаете это df.isnull().any(), вы можете найти только столбцы, которые имеют значения NaN:
0 False
1 True
2 False
3 True
4 False
5 True
dtype: bool
Еще один .any() скажет вам, если любое из вышеперечисленного True
> df.isnull().any().any()
True
df.isnull().sum().sum() - возвращает целое число от общего числа значений NaN: Это работает так же, как .any().any(), сначала давая суммирование количества значений NaN в столбце, затем суммирование этих значений:
df.isnull().sum()
0 0
1 2
2 0
3 1
4 0
5 2
dtype: int64
Наконец, чтобы получить общее количество значений NaN в DataFrame:
df.isnull().sum().sum()
5
Чтобы узнать, какие строки имеют NaN в определенном столбце:
nan_rows = df[df['name column'].isnull()]
Если вам нужно узнать, сколько строк с "одним или несколькими NaN ":
df.isnull().T.any().T.sum()
Или, если вам нужно вытащить эти строки и изучить их:
nan_rows = df[df.isnull().T.any().T]
df.isnull().any().any() должен это сделать.
Добавление в Hobs блестящего ответа, я очень новичок в Python и Pandas, поэтому, пожалуйста, укажите, не ошибаюсь ли я.
Чтобы узнать, какие строки имеют NaNs:
nan_rows = df[df.isnull().any(1)]
выполнил бы ту же операцию без необходимости транспонирования, указав ось any() как 1, чтобы проверить, присутствует ли в строках "True".
Так как никто не упомянул, есть еще одна переменная, называемая hasnans.
df[i].hasnans будет выводиться на True, если одно или несколько значений в серии pandas составляют NaN, False, если нет. Обратите внимание, что это не функция.
pandas версия '0.19.2' и '0.20.2'
Так как pandas должен найти это для DataFrame.dropna(), я посмотрел, как они его реализуют, и обнаружил, что они использовали DataFrame.count(), который подсчитывает все ненулевые значения в DataFrame, Ср pandas исходный код. Я не сравнивал эту технику, но считаю, что авторы библиотеки, вероятно, сделали правильный выбор, как это сделать.
Просто используйте math.isnan(x), верните True, если x - NaN (не число), и False в противном случае.
df.isna().any(axis=None) Начиная с v0.23.2, вы можете использовать DataFrame.isna + DataFrame.any(axis=None) где axis=None указывает логическое сокращение по всему DataFrame.
# Setup
df = pd.DataFrame({'A': [1, 2, np.nan], 'B' : [np.nan, 4, 5]})
df
A B
0 1.0 NaN
1 2.0 4.0
2 NaN 5.0
df.isna()
A B
0 False True
1 False False
2 True False
df.isna().any(axis=None)
# True
numpy.isnan
Еще один эффективный вариант, если вы используете старые версии панд.
np.isnan(df.values)
array([[False, True],
[False, False],
[ True, False]])
np.isnan(df.values).any()
# True
Или проверьте сумму:
np.isnan(df.values).sum()
# 2
np.isnan(df.values).sum() > 0
# True
Series.hasnans
Вы также можете итеративно вызывать Series.hasnans. Например, чтобы проверить, есть ли в одном столбце NaN,
df['A'].hasnans
# True
И чтобы проверить, есть ли в каком-либо столбце NaN, вы можете использовать понимание с any (это операция короткого замыкания).
any(df[c].hasnans for c in df)
# True
Это на самом деле очень быстро.
Вот еще один интересный способ найти нулевое значение и заменить его вычисленным значением.
#Creating the DataFrame
testdf = pd.DataFrame({'Tenure':[1,2,3,4,5],'Monthly':[10,20,30,40,50],'Yearly':[10,40,np.nan,np.nan,250]})
>>> testdf2
Monthly Tenure Yearly
0 10 1 10.0
1 20 2 40.0
2 30 3 NaN
3 40 4 NaN
4 50 5 250.0
#Identifying the rows with empty columns
nan_rows = testdf2[testdf2['Yearly'].isnull()]
>>> nan_rows
Monthly Tenure Yearly
2 30 3 NaN
3 40 4 NaN
#Getting the rows# into a list
>>> index = list(nan_rows.index)
>>> index
[2, 3]
# Replacing null values with calculated value
>>> for i in index:
testdf2['Yearly'][i] = testdf2['Monthly'][i] * testdf2['Tenure'][i]
>>> testdf2
Monthly Tenure Yearly
0 10 1 10.0
1 20 2 40.0
2 30 3 90.0
3 40 4 160.0
4 50 5 250.0
Я использую следующее и набираю тип, приводя его к строке и проверяя значение nan
(str(df.at[index, 'column']) == 'nan')
Это позволяет мне проверять определенное значение в ряду, а не просто возвращать его, если оно содержится где-то в ряду.
Или вы можете использовать .info() на DF например:
df.info(null_counts=True) который возвращает количество строк non_null в столбцах, таких как:
<class 'pandas.core.frame.DataFrame'>
Int64Index: 3276314 entries, 0 to 3276313
Data columns (total 10 columns):
n_matches 3276314 non-null int64
avg_pic_distance 3276314 non-null float64
df.apply(axis=0, func=lambda x : any(pd.isnull(x)))
Проверим для каждого столбца, содержит ли он Nan или нет.
Лучше всего было бы использовать:
df.isna().any().any()
Вот почему. Таким образом, isna() используется для определения isnull(), но оба они, конечно, идентичны.
Это даже быстрее, чем принятый ответ и охватывает все двумерные массивы панд.
df.isnull(). sum() Это даст вам счетчик всех значений NaN в DataFrame
пусть df будет именем DataFrame Pandas, а любые значения, которые являются numpy.nan являются нулевым значением.
df.isnull().any()df.loc[:, df.isnull().any()].columnsdf.loc[:, list(df.loc[:, df.isnull().any()].columns)].isnull().sum()df.loc[:, list(df.loc[:, df.isnull().any()].columns)].isnull().sum()/(len(air_price))*100 РЕДАКТИРОВАТЬ 1: Если вы хотите увидеть, где ваши данные визуально отсутствуют: import missingno missingdata_df = df.columns[df.isnull().any()].tolist() missingno.matrix(df[missingdata_df])
В зависимости от типа данных, с которыми вы имеете дело, вы можете просто получить подсчет значений для каждого столбца при выполнении EDA, установив dropna в False.
for col in df:
print df[col].value_counts(dropna=False)
Хорошо работает для категориальных переменных, не так много, когда у вас много уникальных значений.