用熊猫计算每组的唯一值

我需要在每个domain中计算唯一的ID值。

我有数据:

ID, domain
123, 'vk.com'
123, 'vk.com'
123, 'twitter.com'
456, 'vk.com'
456, 'facebook.com'
456, 'vk.com'
456, 'google.com'
789, 'twitter.com'
789, 'vk.com'

我尝试df.groupby(['domain', 'ID']).count()

但是我想要

domain, count
vk.com   3
twitter.com   2
facebook.com   1
google.com   1
841528 次浏览

通常要在一列中计算不同的值,可以使用Series.value_counts:

df.domain.value_counts()


#'vk.com'          5
#'twitter.com'     2
#'facebook.com'    1
#'google.com'      1
#Name: domain, dtype: int64

要查看一列中有多少唯一值,使用Series.nunique:

df.domain.nunique()
# 4

要获得所有这些不同的值,你可以使用uniquedrop_duplicates,这两个函数之间的细微区别是unique返回numpy.array,而drop_duplicates返回pandas.Series:

df.domain.unique()
# array(["'vk.com'", "'twitter.com'", "'facebook.com'", "'google.com'"], dtype=object)


df.domain.drop_duplicates()
#0          'vk.com'
#2     'twitter.com'
#4    'facebook.com'
#6      'google.com'
#Name: domain, dtype: object

对于这个特定的问题,由于你想计算相对于另一个变量的不同值,除了这里其他答案提供的groupby方法外,你还可以简单地先删除重复项,然后执行value_counts():

import pandas as pd
df.drop_duplicates().domain.value_counts()


# 'vk.com'          3
# 'twitter.com'     2
# 'facebook.com'    1
# 'google.com'      1
# Name: domain, dtype: int64

你需要nunique:

df = df.groupby('domain')['ID'].nunique()


print (df)
domain
'facebook.com'    1
'google.com'      1
'twitter.com'     2
'vk.com'          3
Name: ID, dtype: int64

如果你需要strip '字符:

df = df.ID.groupby([df.domain.str.strip("'")]).nunique()
print (df)
domain
facebook.com    1
google.com      1
twitter.com     2
vk.com          3
Name: ID, dtype: int64

或者像乔恩·克莱门茨注释的那样:

df.groupby(df.domain.str.strip("'"))['ID'].nunique()

你可以像这样保留列名:

df = df.groupby(by='domain', as_index=False).agg({'ID': pd.Series.nunique})
print(df)
domain  ID
0       fb   1
1      ggl   1
2  twitter   2
3       vk   3

区别在于nunique()返回一个Series,而agg()返回一个DataFrame。

如果我理解正确,你想要每个domain的不同__abc0的数量。那么你可以试试这个:

output = df.drop_duplicates()
output.groupby('domain').size()

输出:

    domain
facebook.com    1
google.com      1
twitter.com     2
vk.com          3
dtype: int64

你也可以使用value_counts,它的效率稍低。但是最好的是使用nuniqueJezrael的回答:

%timeit df.drop_duplicates().groupby('domain').size()
1000 loops, best of 3: 939 µs per loop
%timeit df.drop_duplicates().domain.value_counts()
1000 loops, best of 3: 1.1 ms per loop
%timeit df.groupby('domain')['ID'].nunique()
1000 loops, best of 3: 440 µs per loop

df.domain.value_counts ()

>>> df.domain.value_counts()


vk.com          5


twitter.com     2


google.com      1


facebook.com    1


Name: domain, dtype: int64