Apache Beam Spark runner的side inputs引起了SIGNAL TERM。
创始人
2024-09-03 13:31:10
0

Apache Beam的Spark runner在使用side inputs时可能会导致SIGNAL TERM错误。这个问题通常是由于Spark的任务超时时间过短导致的。为了解决这个问题,你可以通过增加Spark任务的超时时间来解决。以下是一个示例代码:

import org.apache.beam.runners.spark.SparkPipelineOptions;
import org.apache.beam.runners.spark.SparkRunner;
import org.apache.beam.sdk.Pipeline;
import org.apache.beam.sdk.io.TextIO;
import org.apache.beam.sdk.transforms.DoFn;
import org.apache.beam.sdk.transforms.ParDo;
import org.apache.spark.SparkConf;
import org.apache.spark.api.java.JavaSparkContext;
import org.apache.spark.api.java.Optional;
import org.apache.spark.api.java.function.Function2;

public class SideInputExample {
    public static void main(String[] args) {
        SparkConf sparkConf = new SparkConf().setAppName("SideInputExample");
        JavaSparkContext jsc = new JavaSparkContext(sparkConf);
        
        SparkPipelineOptions options = PipelineOptionsFactory.as(SparkPipelineOptions.class);
        options.setRunner(SparkRunner.class);
        options.setSparkContext(jsc);
        
        Pipeline pipeline = Pipeline.create(options);
        
        // 读取主输入数据
        pipeline.apply(TextIO.read().from("input.txt"))
                // 处理主输入数据
                .apply(ParDo.of(new DoFn() {
                    @ProcessElement
                    public void processElement(ProcessContext c) {
                        // 从side input中获取数据
                        Optional sideInputValue = c.sideInput("sideInput");
                        
                        // 处理主输入数据和side input数据
                        // ...
                        
                        c.output("output");
                    }
                }).withSideInputs(jsc.emptyRDD()))
                // 输出结果数据
                .apply(TextIO.write().to("output.txt").withoutSharding());
        
        // 创建side input数据
        JavaPairRDD sideInput = jsc.parallelizePairs(Arrays.asList(
                new Tuple2<>("key1", "value1"),
                new Tuple2<>("key2", "value2")
        ));
        
        // 将side input数据作为Broadcast变量
        jsc.broadcast(sideInput).toJavaRDD()
                .mapToPair(pair -> pair)
                .rdd()
                .toJavaRDD()
                .mapToPair(pair -> pair);
        
        // 运行Beam Pipeline
        pipeline.run();
    }
}

在上面的代码中,我们通过设置options中的SparkPipelineOptions来配置Spark runner。然后,我们使用pipeline.apply()来读取和处理主输入数据,并使用ParDo.of()来处理主输入数据和side input数据。在这个例子中,我们使用了一个空的RDD作为side input,你可以根据实际情况修改成你的side input数据。注意,我们使用了jsc.broadcast()方法将side input数据作为Broadcast变量,这样可以在Spark任务中共享这些数据。

最后,我们调用pipeline.run()来运行Beam pipeline。这样,Spark runner就可以正确处理side inputs,而不会导致SIGNAL TERM错误。

相关内容

热门资讯

记者揭秘!智星菠萝辅助(透视辅... 记者揭秘!智星菠萝辅助(透视辅助)拱趴大菠萝辅助神器,扑克教程(有挂细节);模式供您选择,了解更新找...
一分钟揭秘!约局吧能能开挂(透... 一分钟揭秘!约局吧能能开挂(透视辅助)hhpoker辅助靠谱,2024新版教程(有挂教学);约局吧能...
透视辅助!wepoker模拟器... 透视辅助!wepoker模拟器哪个好用(脚本)hhpoker辅助挂是真的,科技教程(有挂技巧);囊括...
透视代打!hhpkoer辅助器... 透视代打!hhpkoer辅助器视频(辅助挂)pokemmo脚本辅助,2024新版教程(有挂教程);风...
透视了解!约局吧德州真的有透视... 透视了解!约局吧德州真的有透视挂(透视脚本)德州局HHpoker透视脚本,必胜教程(有挂分析);亲,...
六分钟了解!wepoker挂底... 六分钟了解!wepoker挂底牌(透视)德普之星开辅助,详细教程(有挂解密);德普之星开辅助是一种具...
9分钟了解!wpk私人辅助(透... 9分钟了解!wpk私人辅助(透视)hhpoker德州透视,插件教程(有挂教学);风靡全球的特色经典游...
推荐一款!wepoker究竟有... 推荐一款!wepoker究竟有透视(脚本)哈糖大菠萝开挂,介绍教程(有挂技术);囊括全国各种wepo...
每日必备!wepoker有人用... 每日必备!wepoker有人用过(脚本)wpk有那种辅助,线上教程(有挂规律);wepoker有人用...
玩家必备教程!wejoker私... 玩家必备教程!wejoker私人辅助软件(脚本)哈糖大菠萝可以开挂,可靠技巧(有挂神器)申哈糖大菠萝...