Следующий код Spark правильно демонстрирует то, что я хочу сделать, и генерирует правильный вывод с крошечным набором демонстрационных данных.
Когда я запускаю тот же общий тип кода на большом объеме производственных данных, у меня возникают проблемы во время выполнения. Задание Spark выполняется в моем кластере примерно 12 часов и завершается сбоем.
Просто взглянув на приведенный ниже код, кажется неэффективным взрывать каждую строку, просто чтобы объединить ее обратно. В заданном наборе тестовых данных четвертая строка с тремя значениями в array_value_1 и тремя значениями в array_value_2 будет расширена до 3*3 или девяти развернутых строк.
Итак, в большом наборе данных строка с пятью такими столбцами массива и десятью значениями в каждом столбце разорвется на 10 ^ 5 развернутых строк?
Глядя на предоставленные функции Spark, нет готовых функций, которые делали бы то, что я хочу. Я мог бы предоставить пользовательскую функцию. Есть ли в этом недостатки скорости?
val sparkSession = SparkSession.builder.
master("local")
.appName("merge list test")
.getOrCreate()
val schema = StructType(
StructField("category", IntegerType) ::
StructField("array_value_1", ArrayType(StringType)) ::
StructField("array_value_2", ArrayType(StringType)) ::
Nil)
val rows = List(
Row(1, List("a", "b"), List("u", "v")),
Row(1, List("b", "c"), List("v", "w")),
Row(2, List("c", "d"), List("w")),
Row(2, List("c", "d", "e"), List("x", "y", "z"))
)
val df = sparkSession.createDataFrame(rows.asJava, schema)
val dfExploded = df.
withColumn("scalar_1", explode(col("array_value_1"))).
withColumn("scalar_2", explode(col("array_value_2")))
// This will output 19. 2*2 + 2*2 + 2*1 + 3*3 = 19
logger.info(s"dfExploded.count()=${dfExploded.count()}")
val dfOutput = dfExploded.groupBy("category").agg(
collect_set("scalar_1").alias("combined_values_2"),
collect_set("scalar_2").alias("combined_values_2"))
dfOutput.show()