当我运行 spark submit 时出现以下错误:
线程“main”中出现异常 org.apache.spark.sql.AnalysisException:无法找到数据源:avro。自 Spark 2.4 以来,Avro 是内置但外部的数据源模块。请按照“Apache Avro 数据源指南”的部署部分部署应用程序。
但在 IDE 中一切运行正常。
jar 是使用sbt 组装。
构建.sbt看起来像这样:
val sparkVersion = "2.4.3"
val jacksonVersion = "2.8.7"
dependencyOverrides ++= Seq(
"com.fasterxml.jackson.core" % "jackson-core" % jacksonVersion,
"com.fasterxml.jackson.core" % "jackson-databind" % jacksonVersion,
"com.fasterxml.jackson.module" %% "jackson-module-scala" % jacksonVersion
)
libraryDependencies ++= Seq(
"org.apache.spark" %% "spark-core" % sparkVersion % "provided" ,
"org.apache.spark" %% "spark-sql" % sparkVersion % "provided",
"org.apache.spark" %% "spark-hive" % sparkVersion % "provided",
"org.apache.spark" %% "spark-avro" % "2.4.3",
"io.confluent" % "kafka-avro-serializer" % "5.0.1",
"org.apache.avro" % "avro" % "1.8.2"
)
assemblyMergeStrategy in assembly := {
case PathList("META-INF", xs@_*) => MergeStrategy.discard
case x => MergeStrategy.first
}
我尝试过scala版本2.11.12 和 2.12.8
工作内容如下:
Seq(1, 2, 3).toDF("id")
.write
.format("avro")
.mode(SaveMode.Overwrite)
.save("testavro")
答案1
您需要删除此依赖项:
"org.apache.avro" % "avro" % "1.8.2"