Java调用Python Spark程序卡死:如何解决Runtime.getRuntime().exec()阻塞问题?

Java调用python代码卡住问题分析与解决

在使用java调用python代码的过程中,经常会遇到一些棘手的问题,例如程序卡住无法继续执行。本文将针对一个具体的案例进行分析,并提供相应的解决方案。

问题描述:开发者使用java的runtime.getruntime().exec()方法执行python脚本python脚本利用spark进行数据处理。在java端,通过process对象获取python脚本的输出,但在python脚本执行到sorted_word_count.take(20)这一行之后,java端程序便卡住,无法继续执行。

python脚本代码如下:

spark = sparksession.builder.appname("read from java backend").master("local[*]").getorcreate();  # 获取传递的参数 comment = sys.argv[1]  # 将json字符串转换为python对象 comment = json.loads(comment)  # 将 comment 列表转换为 rdd comment_rdd = spark.sparkcontext.parallelize(comment)  # 将 rdd 转换为 dataframe df = spark.createdataframe(comment_rdd.map(lambda x: row(**x)))  # 加载停用词库 stop_words = spark.sparkcontext.textfile("c:/users/10421/downloads/baidu_stopwords.txt").collect()  # ... (此处省略部分代码) ...  # 计算每个单词的出现次数 word_count = df.rdd.map(lambda x: (x.word, 1)).reducebykey(lambda x, y: x + y) sorted_word_count = word_count.sortby(lambda x: x[1], ascending=false) top_20_words = sorted_word_count.take(20) column = 0 for row in top_20_words:     print(row[column])

java代码片段如下:

立即学习Java免费学习笔记(深入)”;

process process = runtime.getruntime().exec(args1);  // 获取程序执行结果 inputstream inputstream = process.getinputstream(); bufferedreader reader = new bufferedreader(new inputstreamreader(inputstream,"gb2312")); // ... (此处省略部分代码) ...

问题分析:经测试发现,java程序卡住的原因在于python脚本中sorted_word_count.take(20)这部分代码的执行。 这部分代码会阻塞,直到spark处理完成并返回结果。由于process.getinputstream()是阻塞的,如果python程序的输出没有及时输出到标准输出流,java程序就会一直等待,导致卡住。

解决方案:问题很可能出在字符编码上。 原始代码使用gb2312编码读取python的输出,这可能与python脚本的输出编码不一致,导致数据读取阻塞。 修改java代码,使用utf-8编码读取python的输出,可以解决此问题。

修改后的java代码:

BufferedReader reader = new BufferedReader(new InputStreamReader(inputStream, "UTF-8")); BufferedReader reader2 = new BufferedReader(new InputStreamReader(errorStream, "UTF-8"));

通过将java代码中读取输入流和错误流的编码修改为utf-8,可以解决java程序卡住的问题。 需要注意的是,python脚本也需要确保其输出使用utf-8编码。 如果问题仍然存在,则需要进一步检查spark作业的执行效率以及python脚本中是否存在其他潜在的阻塞操作。

© 版权声明
THE END
喜欢就支持一下吧
点赞12 分享