Spark Cluster 上的 C++ 脚本抛出退出状态 132

Spark Cluster 上的 C++ 脚本抛出退出状态 132

我尝试使用 rdd.pipe() 操作在 Spark 集群上运行 C++ 程序,但执行器抛出: java.lang.IllegalStateException: Subprocess exited with status 132。

Spark jar 可以独立运行,C++ 程序也可以独立运行。我尝试过另一个简单的c++脚本,它在集群上运行没有问题。

据我了解,数字 132 意味着非法指令,但我不知道如何使用它来查明此错误的根源。

我通过检查执行程序日志没有得到更多信息。

相关内容