我想在 Spark 数据框架上计算组分位数(使用 PySpark)。近似或精确的结果都可以。我更喜欢在 groupBy
/agg
上下文中使用的解决方案,这样就可以将其与其他 PySpark 聚合函数混合使用。如果由于某种原因这是不可能的,那么采用不同的方法也是可以的。
这个问题 是相关的,但是没有说明如何使用 approxQuantile
作为聚合函数。
我也可以访问 percentile_approx
蜂巢 UDF,但我不知道如何使用它作为一个聚合函数。
为了具体起见,假设我有以下数据框架:
from pyspark import SparkContext
import pyspark.sql.functions as f
sc = SparkContext()
df = sc.parallelize([
['A', 1],
['A', 2],
['A', 3],
['B', 4],
['B', 5],
['B', 6],
]).toDF(('grp', 'val'))
df_grp = df.groupBy('grp').agg(f.magic_percentile('val', 0.5).alias('med_val'))
df_grp.show()
预期结果是:
+----+-------+
| grp|med_val|
+----+-------+
| A| 2|
| B| 5|
+----+-------+