16软工二班 (广州商学院)

  • 班级所有博文发布时间分布(24小时制):
  • Hadoop综合大作业

    1.准备本次数据分析的数据(以下为爬虫大作业获取的CSV文件) 2.(1)将CSV文件上传到hdfs上 (2)查看文件中前10条信息,即可证明是否上传成功。 3.预处理文件,将CSV文件生成txt文件 (1)先删除第一行字段 (2)将文本文件上传的hdfs上并查看 5.启动hdfs并启动MySQL服
    cjvil   2019-06-21 13:16   0   662
  • 大数据应用期末总评

    1.将爬虫大作业产生的csv文件上传到HDFS 一、建立一个运行本案例的目录database,data并查看是否创建成功 二、将本地文件csv上传到HDFS并查看是否上传成功 三、查看文件: 2.对CSV文件进行预处理生成无标题文本文件二、预处理文件,将csv生成txt文件: 一、预处理文件,将cs
    NANhuang   2019-06-21 00:17   0   333
  • 【大数据应用技术】作业十二|Hadoop综合大作业

    本次作业的要求来自:https://edu.cnblogs.com/campus/gzcc/GZCC-16SE2/homework/3339 前言 本次作业是在《爬虫大作业》的基础上进行的,在《爬虫大作业》中,我主要对拉勾网python岗位的招聘信息进行的数据爬取,最终得到了2641条数据存在一个名
    黄志鹏062   2019-06-20 23:07   0   555
  • Hadoop综合大作业

    本次作业的要求来自:https://edu.cnblogs.com/campus/gzcc/GZCC-16SE2/homework/3339 Hadoop综合大作业 要求: 1.将爬虫大作业产生的csv文件上传到HDFS 2.对CSV文件进行预处理生成无标题文本文件 3.把hdfs中的文本文件最终导
    Tim-Chan   2019-06-19 20:45   0   1025
  • 大数据应用期末总评Hadoop综合大作业

    作业要求来源于:https://edu.cnblogs.com/campus/gzcc/GZCC-16SE2/homework/3339 1.将爬虫大作业产生的csv文件上传到HDFS 此次作业选取的是爬虫《反贪风暴》短评数据生成的info.csv文件;爬取的数据总数为16141条。 cm.csv文
    068郑达   2019-06-19 18:59   0   494
  • 大数据应用期末总评

    本次作业的要求来自:https://edu.cnblogs.com/campus/gzcc/GZCC-16SE2/homework/3339 前言 本次作业是在《爬虫大作业》的基础上进行的,在《爬虫大作业》中,我主要对豆瓣网各类型书籍进行数据爬取,最终得到了2641条数据存在一个名为lagoupy.
    Zhms   2019-06-19 18:31   0   326
  • Hadoop综合大作业

    Hadoop综合大作业 要求: 1.将爬虫大作业产生的csv文件上传到HDFS 2.对CSV文件进行预处理生成无标题文本文件 3.把hdfs中的文本文件最终导入到数据仓库Hive中 创建数据库 创建表 4.在Hive中查看并分析数据 查看图书评分大于9.0前20本书的详情,可以看出这些都是大家很熟悉
    kenda_yellow   2019-06-19 15:34   0   415
  • 将爬取的实习僧网站数据传入HDFS

    一、引言: 作为一名大三的学生,找实习对于我们而言是迫在眉睫的。实习作为迈入工作的第一步,它的重要性不言而喻,一份好的实习很大程度上决定了我们以后的职业规划。 那么,一份好的实习应该考量哪些因素呢?对于我们计算机专业的学生而言现在的实习趋势是什么呢? 我从实习僧网站爬取了5000条全国互联网行业的职
    啊涵呀   2019-06-19 12:41   1   980
  • Hadoop综合大作业

    本次作业的要求来自:https://edu.cnblogs.com/campus/gzcc/GZCC-16SE2/homework/3339 作业要求 1.对CSV文件进行预处理生成无标题文本文件,将爬虫大作业产生的csv文件上传到HDFS 2.把hdfs中的文本文件最终导入到数据仓库Hive中,在
    梁运金   2019-06-18 18:57   0   438
  • hadoop综合

    对CSV文件进行预处理生成无标题文本文件,将爬虫大作业产生的csv文件上传到HDFS 首先,我们需要在本地中创建一个/usr/local/bigdatacase/dataset文件夹,具体的步骤为: ① cd /usr/local ② sudo mkdir bigdatacase ③ cd bigd
    李嘉杰   2019-06-18 09:50   0   239