使用pyspark覆盖spark输出

发布于 2021-01-29 17:17:37

我正在尝试使用PySpark中的以下选项覆盖Spark数据帧,但我不成功

spark_df.write.format('com.databricks.spark.csv').option("header", "true",mode='overwrite').save(self.output_file_path)

mode = overwrite命令失败

关注者
0
被浏览
52
1 个回答
  • 面试哥
    面试哥 2021-01-29
    为面试而生,有面试问题,就找面试哥。

    尝试:

    spark_df.write.format('com.databricks.spark.csv') \
      .mode('overwrite').option("header", "true").save(self.output_file_path)
    


知识点
面圈网VIP题库

面圈网VIP题库全新上线,海量真题题库资源。 90大类考试,超10万份考试真题开放下载啦

去下载看看