假设我有用户活动日志,我想生成总持续时间和每天唯一用户数量的报告。
import numpy as np
import pandas as pd
df = pd.DataFrame({'date': ['2013-04-01','2013-04-01','2013-04-01','2013-04-02', '2013-04-02'],
'user_id': ['0001', '0001', '0002', '0002', '0002'],
'duration': [30, 15, 20, 15, 30]})
聚合持续时间非常简单:
group = df.groupby('date')
agg = group.aggregate({'duration': np.sum})
agg
duration
date
2013-04-01 65
2013-04-02 45
我想做的是同时对持续时间和不同计数进行求和,但我似乎找不到 count_distinct 的等效项:
agg = group.aggregate({ 'duration': np.sum, 'user_id': count_distinct})
这可行,但肯定有更好的方法,不是吗?
group = df.groupby('date')
agg = group.aggregate({'duration': np.sum})
agg['uv'] = df.groupby('date').user_id.nunique()
agg
duration uv
date
2013-04-01 65 2
2013-04-02 45 1
我想我只需要提供一个函数,将 Series 对象的不同项的计数返回到聚合函数,但我没有太多接触可供使用的各种库。另外,似乎 groupby 对象已经知道这些信息,所以我不是在重复工作吗?
以下任一选项如何:
>>> df
date duration user_id
0 2013-04-01 30 0001
1 2013-04-01 15 0001
2 2013-04-01 20 0002
3 2013-04-02 15 0002
4 2013-04-02 30 0002
>>> df.groupby("date").agg({"duration": np.sum, "user_id": pd.Series.nunique})
duration user_id
date
2013-04-01 65 2
2013-04-02 45 1
>>> df.groupby("date").agg({"duration": np.sum, "user_id": lambda x: x.nunique()})
duration user_id
date
2013-04-01 65 2
2013-04-02 45 1
.agg()
的一个选项,所以:
df.groupby('date').agg({'duration': 'sum', 'user_id': 'nunique'})
只需添加到已经给出的答案中,使用字符串
"nunique"
的解决方案似乎要快得多,在 ~21M 行数据帧上进行测试,然后分组为 ~2M
%time _=g.agg({"id": lambda x: x.nunique()})
CPU times: user 3min 3s, sys: 2.94 s, total: 3min 6s
Wall time: 3min 20s
%time _=g.agg({"id": pd.Series.nunique})
CPU times: user 3min 2s, sys: 2.44 s, total: 3min 4s
Wall time: 3min 18s
%time _=g.agg({"id": "nunique"})
CPU times: user 14 s, sys: 4.76 s, total: 18.8 s
Wall time: 24.4 s
如果您只想获取每组的多个不同值,您可以直接使用方法
nunique
与 DataFrameGroupBy
对象:
df.groupby('date')['user_id'].nunique()
您可以使用
aggregate
方法一次找到所有列,
df.aggregate(func=pd.Series.nunique, axis=0)
# or
df.aggregate(func='nunique', axis=0)
参见 聚合 |熊猫文档