对两天前的一个问题进行了新的处理。
当你有一个大的数据集时,PANDAS可以让你在生成统计数据的同时,就地过滤一些东西,这样你就不用为所有的东西都做新的数据框了。 现在,我怀疑这样做有细微的差别,因为用两种不同的方式做事情--一种是 "聪明 "的方式,一种是 "明确 "的方式,给我的答案很不一样,一个明显是对的(明确的方式),一个明显是错的(聪明的方式)。
谁能给我指点一下,我有什么不足之处。
下面是细节。
我有250万行数据,描述了一系列不同类型设备的故障时间。 下面是其中两个设备的描述性统计。 (注意,这些其实是采矿设备,但我必须消毒一些东西,所以我替换了名字)。
Count Min Mean Max
CC_CauseLocationEquipmentType
Coffee Machines 204136 0.000556 71.797146 23407.41667
Blenders 52424 0.008333 750.880591 23077.79167
如果我试着得到设备的故障时间的量子值,用
print(df2.groupby("CC_CauseLocationEquipmentType").quantile([.1, .25, .5, .75,0.9,0.95,0.99,0.99999]))
然后我看到了以下的分位数。
CC_TBF
CC_CauseLocationEquipmentType
Coffee Machines 0.10000 0.005556
0.25000 0.238889
0.50000 1.775000
0.75000 2.595833
0.90000 4.611389
0.95000 7.008125
0.99000 15.465278
0.99999 21.089619 <-- Nowhere near the max of 23407.41667
Blenders 0.10000 57.731806
0.25000 394.004375
0.50000 0.288889
0.75000 7.201528
0.90000 51.015667
0.95000 83.949833
0.99000 123.148019
0.99999 133.708716 <-- Nowhere near the max of 23077.79167
这显然是不正确的,因为99.999%的分位数远远没有达到这些设备类型的最大值。 另外,请注意Blender量化数据集中的 "重置 "部分。 我之前问过这个问题 潘达斯量子化的错误行为是......在百分数范围内的一部分变小? 这个问题还没有解决,但我认为这个新问题也有助于解决这个问题。
当我单独考虑量子数时,我得到了更合理的结果。 使用下面的代码,我现在得到:
print("Quantiles - type by type - Coffee Machines")
df3=df2.loc[df2['CC_CauseLocationEquipmentType'] == "Coffee Machines"]
print(df3.quantile([.1, .25, .5, .75,0.9,0.95,0.99,0.99999]) )
print("Quantiles - type by type - Blenders")
df3=df2.loc[df2['CC_CauseLocationEquipmentType'] == "Blenders"]
print(df3.quantile([.1, .25, .5, .75,0.9,0.95,0.99,0.99999]) )
我现在得到的是:
Quantiles - type by type - Coffee Machines
CC_TBF
0.10000 0.120556
0.25000 0.608333
0.50000 2.040556
0.75000 3.494514
0.90000 18.047917
0.95000 129.798403
0.99000 1644.764861
0.99999 23003.517729 <-- Pretty darn close to the max of 23407
Quantiles - type by type - Blenders
CC_TBF
0.10000 0.226111
0.25000 0.941667
0.50000 37.924167
0.75000 388.554444
0.90000 1955.252500
0.95000 4301.835320
0.99000 11362.310594
0.99999 22831.372845 <--- pretty darn close to the max of 23077
有谁能告诉我为什么这两种不同的方法会得到如此不同的结果,以及为什么我使用的是: groupby
是给我这样一个奇怪的,看似随意的结果? 难道 groupby
以某种方式使用与我在第二种 "显式 "方法中所做的不同的完整数据的子集?
非常有意思。很明显,至少在我的Pandas版本(0.25.1)中,有一个bug,那就是 df.groupby(...).quantile(<array-like>)
. 那 代码路径不同 而且即使在非常简单的例子上似乎也被破坏了,比如。
df = pd.DataFrame(
{"A": [0., 0., 0.], "B": ["X", "Y", "Z"]}
)
result = df.groupby("B").quantile([0.5, 0.9])
而在2元素版本的例子中,它可以工作。
df = pd.DataFrame(
{"A": [0., 0.], "B": ["X", "Y"]}
)
result = df.groupby("B").quantile([0.5, 0.9])
我会避免在类似数组的对象上使用groupby与quantile,直到代码被修复,即使在现在可以工作的情况下也是如此,因为它很可能容易出错。
Blame那里也显示出很多相当新鲜的更新(10、16个月)也正是处理这些代码。
在@alexander-pivovarov的回答中,你看不到两个例子中的量化在工作。每个组只有零和一个元素,所以结果总是零。还是我在这里说错了?
我使用 pandas 0.25.3 并得到有用的结果。
import pandas as pd
df = pd.DataFrame(
{"A": [1., 2., 3., 4., 5., 6.], "B": ["X", "X", "Y", "Y", "Z", "Z"]}
)
result = df.groupby("B").quantile([0.5, 0.9])
print(result)
输出。
A
B
X 0.5 1.5
0.9 1.9
Y 0.5 3.5
0.9 3.9
Z 0.5 5.5
0.9 5.9
如果传给它的是一个数字 quantiles()
你可以黑进这样的东西
q = [0.2, 0.5, 0.9]
res = [df.groupby("B").quantile(_).loc['X', 'A'] for _ in q]
df_q = pd.DataFrame({'A':res, 'quantiles':q})
print(df_q)
输出。
A quantiles
0 1.2 0.2
1 1.5 0.5
2 1.9 0.9
直到它被修复。