使用pyspark覆盖spark输出
发布于 2021-01-29 17:17:37
我正在尝试使用PySpark中的以下选项覆盖Spark数据帧,但我不成功
spark_df.write.format('com.databricks.spark.csv').option("header", "true",mode='overwrite').save(self.output_file_path)
mode = overwrite命令失败
关注者
0
被浏览
52
1 个回答