使用PySpark将JSON文件读取为Pyspark Dataframe吗?

发布于 2021-01-29 14:09:53

如何使用PySpark读取以下JSON结构以触发数据帧?

我的JSON结构

{"results":[{"a":1,"b":2,"c":"name"},{"a":2,"b":5,"c":"foo"}]}

我已经尝试过:

df = spark.read.json('simple.json');

我希望将输出a,b,c作为列,并将值作为相应的行。

谢谢。

关注者
0
被浏览
173
1 个回答
  • 面试哥
    面试哥 2021-01-29
    为面试而生,有面试问题,就找面试哥。

    Json字符串变量

    如果您将 json字符串作为变量, 则可以

    simple_json = '{"results":[{"a":1,"b":2,"c":"name"},{"a":2,"b":5,"c":"foo"}]}'
    rddjson = sc.parallelize([simple_json])
    df = sqlContext.read.json(rddjson)
    
    from pyspark.sql import functions as F
    df.select(F.explode(df.results).alias('results')).select('results.*').show(truncate=False)
    

    这会给你

    +---+---+----+
    |a  |b  |c   |
    +---+---+----+
    |1  |2  |name|
    |2  |5  |foo |
    +---+---+----+
    

    Json字符串作为文件中的单独行(sparkContext和sqlContext)

    如果 文件中json字符串作为单独的行, 则可以 使用sparkContext将其读入rdd [string]
    ,如上所述,其余过程与上述相同

    rddjson = sc.textFile('/home/anahcolus/IdeaProjects/pythonSpark/test.csv')
    df = sqlContext.read.json(rddjson)
    df.select(F.explode(df['results']).alias('results')).select('results.*').show(truncate=False)
    

    Json字符串作为文件中的单独行(仅适用于sqlContext)

    如果您 在文件中将JSON字符串作为单独的行, 则只能使用sqlContext。但是这个过程是复杂的 ,你必须创建模式 为它

    df = sqlContext.read.text('path to the file')
    
    from pyspark.sql import functions as F
    from pyspark.sql import types as T
    df = df.select(F.from_json(df.value, T.StructType([T.StructField('results', T.ArrayType(T.StructType([T.StructField('a', T.IntegerType()), T.StructField('b', T.IntegerType()), T.StructField('c', T.StringType())])))])).alias('results'))
    df.select(F.explode(df['results.results']).alias('results')).select('results.*').show(truncate=False)
    

    这应该给你与上述结果相同

    我希望答案是有帮助的



知识点
面圈网VIP题库

面圈网VIP题库全新上线,海量真题题库资源。 90大类考试,超10万份考试真题开放下载啦

去下载看看