软件1801 (广州商学院)

  • 08 学生课程分数的Spark SQL分析

    用DataFrame的操作或SQL语句完成以下数据分析要求,并和用RDD操作的实现进行对比: 每个分数+5分。 2.总共有多少学生? 3.总共开设了哪些课程? 4.每个学生选修了多少门课? 5.每门课程有多少个学生选? 6.每门课程大于95分的学生人数? 7.Tom选修了几门课?每门课多少分? 8.
    嘁嘁嘁7   2021-05-19 22:19   0   15
  • 08 学生课程分数的Spark SQL分析

    1.生成“表头” from pyspark.sql.types import IntegerType,StringType,StructField,StructTypefrom pyspark.sql import Rowfields=[StructField('name',StringType()
    不喜欢穿内裤   2021-05-19 22:15   0   52
  • 08 学生课程分数的Spark SQL分析

    一. 读学生课程分数文件chapter4-data01.txt,创建DataFrame。 1.生成“表头” 2.生成“表中的记录” 3.把“表头”和“表中的记录”拼装在一起 用DataFrame的操作或SQL语句完成以下数据分析要求,并和用RDD操作的实现进行对比: 每个分数+5分。 df_scs.
    赖泽梵   2021-05-19 22:14   0   13
  • 08 学生课程分数的Spark SQL分析

    1.用DataFrame的操作或SQL语句完成以下数据分析要求: 2.总共有多少学生? 3.开设了多少门课程? 4.每个学生选修了多少门课? 5.每门课程有多少个学生选? 6.Tom选修了几门课?每门课多少分? 7.Tom的成绩按分数大小排序。 8.Tom的平均分。 9.每个分数+5分。 10.求每
    Ling3   2021-05-19 22:03   0   46
  • 08 学生课程分数的Spark SQL分析

    读学生课程分数文件chapter4-data01.txt,创建DataFrame。 >>> url = "file:///usr/local/spark/mycode/rdd/chapter4-data01.txt" >>> rdd = spark.sparkContext.textFile(url
    隔壁老尤   2021-05-19 20:46   0   41
  • 08 学生课程分数的Spark SQL分析

    用DataFrame的操作或SQL语句完成以下数据分析要求,并和用RDD操作的实现进行对比: 每个分数+5分。 2.总共有多少学生? 3.总共开设了哪些课程? 4.每个学生选修了多少门课? 5.每门课程有多少个学生选? 6.每门课程大于95分的学生人数? 7.Tom选修了几门课?每门课多少分? 8.
    小西西、   2021-05-19 16:44   0   27
  • 08 学生课程分数的Spark SQL分析

    读学生课程分数文件chapter4-data01.txt,创建DataFrame: 一、用DataFrame的操作或SQL语句完成以下数据分析要求,并和用RDD操作的实现进行对比: 1.每个分数+5分。 2.总共有多少学生? 3.总共开设了哪些课程? 4.每个学生选修了多少门课? 5.每门课程有多少
    多吃外卖   2021-05-19 11:49   0   54
  • 08 学生课程分数的Spark SQL分析

    读学生课程分数文件chapter4-data01.txt,创建DataFrame。 一、用DataFrame的操作或SQL语句完成以下数据分析要求,并和用RDD操作的实现进行对比 1.每个分数+5分 2.总共有多少学生? 3.总共开设了哪些课程? 4.每个学生选修了多少门课? 5.每门课程有多少个学
    少吃外卖   2021-05-19 00:20   0   64
  • 08 学生课程分数的Spark SQL分析

    一、用SQL语句完成数据分析要求 ###生成“表头” from pyspark.sql.types import IntegerType,StringType,StructField,StructType from pyspark.sql import Row fields = [StructFie
    金腰带小拳石   2021-05-18 20:55   0   30
  • 08 学生课程分数的Spark SQL分析

    读学生课程分数文件chapter4-data01.txt,创建DataFrame。 url = "file:///usr/local/spark/mycode/rdd/chapter4-data01.txt" rdd = spark.sparkContext.textFile(url).map(la
    会喷水的海参   2021-05-18 17:54   0   102