Pandas: фильтры строк DataFrame с цепочкой операторов

Большинство операций в pandas можно выполнить с помощью цепочки операторов (groupby, aggregate, apply и т.д.), но единственный способ, которым я нашел для фильтрации строк, - это обычное индексирование скобок

df_filtered = df[df['column'] == value]

Это неприменимо, поскольку для этого я должен назначить переменную df, прежде чем иметь возможность фильтровать ее значения. Есть ли что-то более похожее на следующее?

df_filtered = df.mask(lambda x: x['column'] == value)

Ответ 1

Я не совсем уверен, чего вы хотите, и ваша последняя строка кода тоже не помогает, но в любом случае:

"Цепная" фильтрация выполняется путем "цепочки" критериев в булевом индексе.

In [96]: df
Out[96]:
   A  B  C  D
a  1  4  9  1
b  4  5  0  2
c  5  5  1  0
d  1  3  9  6

In [99]: df[(df.A == 1) & (df.D == 6)]
Out[99]:
   A  B  C  D
d  1  3  9  6

Если вы хотите связать методы, вы можете добавить свой собственный метод маски и использовать его.

In [90]: def mask(df, key, value):
   ....:     return df[df[key] == value]
   ....:

In [92]: pandas.DataFrame.mask = mask

In [93]: df = pandas.DataFrame(np.random.randint(0, 10, (4,4)), index=list('abcd'), columns=list('ABCD'))

In [95]: df.ix['d','A'] = df.ix['a', 'A']

In [96]: df
Out[96]:
   A  B  C  D
a  1  4  9  1
b  4  5  0  2
c  5  5  1  0
d  1  3  9  6

In [97]: df.mask('A', 1)
Out[97]:
   A  B  C  D
a  1  4  9  1
d  1  3  9  6

In [98]: df.mask('A', 1).mask('D', 6)
Out[98]:
   A  B  C  D
d  1  3  9  6

Ответ 2

Фильтры могут быть скованы с помощью Pandas query:

df = pd.DataFrame( np.random.randn(30,3), columns = ['a','b','c'])
df_filtered = df.query('a>0').query('0<b<2')

Фильтры также могут быть объединены в один запрос:

df_filtered = df.query('a>0 and 0<b<2')

Ответ 3

Ответ от @lodagro велик. Я бы расширил его, обобщая функцию маски как:

def mask(df, f):
  return df[f(df)]

Затем вы можете делать такие вещи, как:

df.mask(lambda x: x[0] < 0).mask(lambda x: x[1] > 0)

Ответ 4

Начиная с версии 0.18.1 метод .loc принимает вызываемый для выбора. Вместе с лямбда-функциями вы можете создавать очень гибкие сетчатые фильтры:

import numpy as np
import pandas as pd

df = pd.DataFrame(np.random.randint(0,100,size=(100, 4)), columns=list('ABCD'))
df.loc[lambda df: df.A == 80]  # equivalent to df[df.A == 80] but chainable

df.sort_values('A').loc[lambda df: df.A > 80].loc[lambda df: df.B > df.A]

Если все, что вы делаете, это фильтрация, вы также можете опустить .loc.

Ответ 5

Я предлагаю это для дополнительных примеров. Это тот же ответ, что и fooobar.com/questions/38678/...

Я добавлю другие изменения, чтобы сделать этот пост более полезным.

pandas.DataFrame.query
query был сделан именно для этой цели. Рассмотрим блок данных df

import pandas as pd
import numpy as np

np.random.seed([3,1415])
df = pd.DataFrame(
    np.random.randint(10, size=(10, 5)),
    columns=list('ABCDE')
)

df

   A  B  C  D  E
0  0  2  7  3  8
1  7  0  6  8  6
2  0  2  0  4  9
3  7  3  2  4  3
4  3  6  7  7  4
5  5  3  7  5  9
6  8  7  6  4  7
7  6  2  6  6  5
8  2  8  7  5  8
9  4  7  6  1  5

Позвольте использовать query для фильтрации всех строк, где D > B

df.query('D > B')

   A  B  C  D  E
0  0  2  7  3  8
1  7  0  6  8  6
2  0  2  0  4  9
3  7  3  2  4  3
4  3  6  7  7  4
5  5  3  7  5  9
7  6  2  6  6  5

Что мы цеп

df.query('D > B').query('C > B')
# equivalent to
# df.query('D > B and C > B')
# but defeats the purpose of demonstrating chaining

   A  B  C  D  E
0  0  2  7  3  8
1  7  0  6  8  6
4  3  6  7  7  4
5  5  3  7  5  9
7  6  2  6  6  5

Ответ 6

У меня был тот же вопрос, за исключением того, что я хотел совместить критерии с условием ИЛИ. Формат, заданный Wouter Overmeire, объединяет критерии в условие AND, которое должно быть удовлетворено:

In [96]: df
Out[96]:
   A  B  C  D
a  1  4  9  1
b  4  5  0  2
c  5  5  1  0
d  1  3  9  6

In [99]: df[(df.A == 1) & (df.D == 6)]
Out[99]:
   A  B  C  D
d  1  3  9  6

Но я обнаружил, что если вы завершаете каждое условие в (... == True) и присоединяете критерии к трубу, критерии объединяются в условии ИЛИ, удовлетворяющем всякий раз, когда любое из них истинно:

df[((df.A==1) == True) | ((df.D==6) == True)]

Ответ 7

Мой ответ аналогичен другим. Если вы не хотите создавать новую функцию, вы можете использовать то, что уже определил pandas. Используйте метод трубы.

df.pipe(lambda d: d[d['column'] == value])

Ответ 8

Если вы хотите применить все общие логические маски, а также маску общего назначения, вы можете вставить следующее в файл, а затем просто назначить их следующим образом:

pd.DataFrame = apply_masks()

Использование:

A = pd.DataFrame(np.random.randn(4, 4), columns=["A", "B", "C", "D"])
A.le_mask("A", 0.7).ge_mask("B", 0.2)... (May be repeated as necessary

Это немного взломанно, но это может сделать вещи немного чище, если вы постоянно измельчаете и меняете наборы данных в соответствии с фильтрами. Там также фильтр общего назначения, адаптированный от Daniel Velkov выше в функции gen_mask, которую вы можете использовать с лямбда-функциями или, при желании, иначе.

Файл для сохранения (я использую masks.py):

import pandas as pd

def eq_mask(df, key, value):
    return df[df[key] == value]

def ge_mask(df, key, value):
    return df[df[key] >= value]

def gt_mask(df, key, value):
    return df[df[key] > value]

def le_mask(df, key, value):
    return df[df[key] <= value]

def lt_mask(df, key, value):
    return df[df[key] < value]

def ne_mask(df, key, value):
    return df[df[key] != value]

def gen_mask(df, f):
    return df[f(df)]

def apply_masks():

    pd.DataFrame.eq_mask = eq_mask
    pd.DataFrame.ge_mask = ge_mask
    pd.DataFrame.gt_mask = gt_mask
    pd.DataFrame.le_mask = le_mask
    pd.DataFrame.lt_mask = lt_mask
    pd.DataFrame.ne_mask = ne_mask
    pd.DataFrame.gen_mask = gen_mask

    return pd.DataFrame

if __name__ == '__main__':
    pass

Ответ 9

Это решение более хакерское с точки зрения реализации, но я считаю его более чистым с точки зрения использования, и это, безусловно, более общее, чем предлагаемые другие.

https://github.com/toobaz/generic_utils/blob/master/generic_utils/pandas/where.py

Вам не нужно загружать все репо: сохранение файла и выполнение

from where import where as W

должно быть достаточно. Затем вы используете его следующим образом:

df = pd.DataFrame([[1, 2, True],
                   [3, 4, False], 
                   [5, 7, True]],
                  index=range(3), columns=['a', 'b', 'c'])
# On specific column:
print(df.loc[W['a'] > 2])
print(df.loc[-W['a'] == W['b']])
print(df.loc[~W['c']])
# On entire - or subset of a - DataFrame:
print(df.loc[W.sum(axis=1) > 3])
print(df.loc[W[['a', 'b']].diff(axis=1)['b'] > 1])

Немного менее глупый пример использования:

data = pd.read_csv('ugly_db.csv').loc[~(W == '$null$').any(axis=1)]

Кстати: даже в том случае, когда вы просто используете логические столбцы,

df.loc[W['cond1']].loc[W['cond2']]

может быть намного более эффективным, чем

df.loc[W['cond1'] & W['cond2']]

потому что он вычисляет cond2 только там, где cond1 является True.

ОТКАЗ ОТ ОТВЕТСТВЕННОСТИ: Я впервые дал этот ответ в другом месте, потому что я этого не видел.

Ответ 10

pandas предоставляет два варианта ответа Wouter Overmeire, которые не требуют каких-либо переопределений. Один из них - .loc[.] С вызываемым, как в

df_filtered = df.loc[lambda x: x['column'] == value]

другой - .pipe(), как в

df_filtered = df.pipe(lambda x: x['column'] == value)

Ответ 11

Просто хочу добавить демонстрацию, используя loc для фильтрации не только по строкам, но также по столбцам и некоторым достоинствам в цепочке.

Код ниже может фильтровать строки по значению.

df_filtered = df.loc[df['column'] == value]

Изменяя его немного, вы также можете фильтровать столбцы.

df_filtered = df.loc[df['column'] == value, ['year', 'column']]

Итак, почему мы хотим цепной метод? Ответ заключается в том, что его легко читать, если у вас много операций. Например,

res =  df\
    .loc[df['station']=='USA', ['TEMP', 'RF']]\
    .groupby('year')\
    .agg(np.nanmean)

Ответ 12

Это непривлекательно, так как требует, чтобы я присвоил df переменной, прежде чем смогу фильтровать ее значения.

df[df["column_name"] != 5].groupby("other_column_name")

кажется, работает: вы также можете вкладывать оператор []. Возможно они добавили это, так как Вы задали вопрос.

Ответ 13

Если вы задаете свои столбцы для поиска в качестве индексов, вы можете использовать DataFrame.xs(), чтобы взять поперечное сечение. Это не так много, как ответы query, но может быть полезно в некоторых ситуациях.

import pandas as pd
import numpy as np

np.random.seed([3,1415])
df = pd.DataFrame(
    np.random.randint(3, size=(10, 5)),
    columns=list('ABCDE')
)

df
# Out[55]: 
#    A  B  C  D  E
# 0  0  2  2  2  2
# 1  1  1  2  0  2
# 2  0  2  0  0  2
# 3  0  2  2  0  1
# 4  0  1  1  2  0
# 5  0  0  0  1  2
# 6  1  0  1  1  1
# 7  0  0  2  0  2
# 8  2  2  2  2  2
# 9  1  2  0  2  1

df.set_index(['A', 'D']).xs([0, 2]).reset_index()
# Out[57]: 
#    A  D  B  C  E
# 0  0  2  2  2  2
# 1  0  2  1  1  0

Ответ 14

Вы также можете использовать библиотеку numpy для логических операций. Это довольно быстро.

df[np.logical_and(df['A'] == 1 ,df['B'] == 6)]