SparkException:此JVM中只能运行一个SparkContext(请参阅SPARK-2243)

发布于 2021-01-29 17:08:32

我看到几个帖子包含与我收到的错误相同的错误,但是没有一个帖子可以使我对我的代码进行修复。我已经多次使用这个完全相同的代码而没有任何问题,现在却遇到了问题。这是我收到的错误:

y4j.protocol.Py4JJavaError: An error occurred while calling None.org.apache.spark.api.java.JavaSparkContext.
: org.apache.spark.SparkException: Only one SparkContext may be running in this JVM (see SPARK-2243).

这是我在python脚本中启动上下文的方法:

spark = ps.sql.SparkSession.builder \
        .master("local[*]") \
        .appName("collab_rec") \
        .config("spark.mongodb.input.uri", "mongodb://127.0.0.1/bgg.game_commen$
        .getOrCreate()

sc = spark.sparkContext
sc.setCheckpointDir('checkpoint/')
sqlContext = SQLContext(spark)

如果您有任何建议,请告诉我。

关注者
0
被浏览
140
1 个回答
  • 面试哥
    面试哥 2021-01-29
    为面试而生,有面试问题,就找面试哥。

    SparkSession是Spark 2.x中的新入口点。这是SQLContext的替代,但是它在内部代码中使用SQLContext。

    您使用SQLContext所做的一切都应该可以通过SparkSession实现。

    如果您确实要使用SQLContext,请使用spark.sqlContext变量



知识点
面圈网VIP题库

面圈网VIP题库全新上线,海量真题题库资源。 90大类考试,超10万份考试真题开放下载啦

去下载看看