要按照组执行UDF(用户定义的函数),可以使用Spark的groupBy
和pandas_udf
函数结合起来。下面是一个示例代码:
from pyspark.sql import SparkSession
from pyspark.sql.functions import pandas_udf, PandasUDFType
# 创建SparkSession
spark = SparkSession.builder.appName("GroupByUDF").getOrCreate()
# 创建示例数据
data = [("Alice", 25, "Group1"), ("Bob", 30, "Group2"), ("Charlie", 35, "Group1")]
df = spark.createDataFrame(data, ["name", "age", "group"])
# 定义UDF函数
@pandas_udf("int", PandasUDFType.SCALAR)
def calculate_avg_age(group):
return group["age"].mean()
# 按照组执行UDF
result = df.groupBy("group").apply(calculate_avg_age)
# 显示结果
result.show()
在上面的代码中,首先创建一个SparkSession对象。然后,创建一个包含示例数据的DataFrame对象。接下来,定义一个名为calculate_avg_age
的UDF函数,该函数接受一个pandas DataFrame并返回一个整数。最后,使用groupBy
函数将数据按组分组,并使用apply
函数将UDF应用于每个组。最终,显示结果。
请注意,这种方法可以在处理较小数据集时提供良好的性能。如果数据集非常大,可能需要考虑其他更高级的优化方法,如使用Spark SQL中的窗口函数或使用分布式机器学习库(如PySpark的MLlib)来执行更复杂的操作。