将时间序列pySpark数据帧拆分为测试和训练,而无需使用随机拆分

发布于 2021-01-29 14:10:56

我有一个火花时间序列数据框。我想将其拆分为80-20(训练测试)。由于这是 时间序列数据帧
,因此我不想进行随机拆分。为了将第一个数据帧传递到训练中并传递第二个数据帧进行测试,我该如何做?

关注者
0
被浏览
138
1 个回答
  • 面试哥
    面试哥 2021-01-29
    为面试而生,有面试问题,就找面试哥。

    您可以pyspark.sql.functions.percent_rank()用来获取按时间戳/日期列排序的DataFrame的百分位排名。然后选择所有列rank <= 0.8作为训练集,其余作为测试集。

    例如,如果您具有以下DataFrame:

    df.show(truncate=False)
    #+---------------------+---+
    #|date                 |x  |
    #+---------------------+---+
    #|2018-01-01 00:00:00.0|0  |
    #|2018-01-02 00:00:00.0|1  |
    #|2018-01-03 00:00:00.0|2  |
    #|2018-01-04 00:00:00.0|3  |
    #|2018-01-05 00:00:00.0|4  |
    #+---------------------+---+
    

    您需要训练集中的前4行和训练集中的最后一行。首先添加一列rank

    from pyspark.sql.functions import percent_rank
    from pyspark.sql import Window
    
    df = df.withColumn("rank", percent_rank().over(Window.partitionBy().orderBy("date")))
    

    现在使用rank将数据拆分为traintest

    train_df = df.where("rank <= .8").drop("rank")
    train_df.show()
    #+---------------------+---+
    #|date                 |x  |
    #+---------------------+---+
    #|2018-01-01 00:00:00.0|0  |
    #|2018-01-02 00:00:00.0|1  |
    #|2018-01-03 00:00:00.0|2  |
    #|2018-01-04 00:00:00.0|3  |
    #+---------------------+---+
    
    test_df = df.where("rank > .8").drop("rank")
    test_df.show()
    #+---------------------+---+
    #|date                 |x  |
    #+---------------------+---+
    #|2018-01-05 00:00:00.0|4  |
    #+---------------------+---+
    


知识点
面圈网VIP题库

面圈网VIP题库全新上线,海量真题题库资源。 90大类考试,超10万份考试真题开放下载啦

去下载看看