- 班级所有博文发布时间分布(24小时制):
-
Hadoop综合大作业
作业来源:https://edu.cnblogs.com/campus/gzcc/GZCC-16SE1/homework/3363 1.将从爬虫大作业里爬到的csv数据文件放到dataset文件夹内 2.对字段进行预处理并查看 pre_deal.sh文件 3.赋予bigdatacase文件夹权限 4 -
大数据应用期末总评
作业要求:https://edu.cnblogs.com/campus/gzcc/GZCC-16SE1/homework/3363 首先在本地创建一个/usr/local/bigdatacase/dataset 1.对CSV文件进行预处理生成无标题文本文件,将爬虫大作业产生的csv文件上传到HDFS -
Hadoop综合大作业
本次作业要求来源于:https://edu.cnblogs.com/campus/gzcc/GZCC-16SE1/homework/3363 1.将爬虫大作业产生的csv文件上传到HDFS 2.对CSV文件进行预处理生成无标题文本文件 3.把hdfs中的文本文件最终导入到数据仓库Hive中 4.在H -
Hadoop 综合大作业
作业来源:https://edu.cnblogs.com/campus/gzcc/GZCC-16SE1/homework/3363 Hadoop综合大作业 1.将爬虫大作业产生的csv文件 2.对CSV文件进行预处理生成无标题文本文件 3.把上传到hdfs中的文本文件最终导入到数据仓库Hive中 4 -
大数据应用期末总评
作业要求来源:https://edu.cnblogs.com/campus/gzcc/GZCC-16SE1/homework/3363 大数据分析: 1.将爬虫大作业产生的csv文件上传到HDFS 2.对CSV文件进行预处理生成无标题文本文件 3.把hdfs中的文本文件最终导入到数据仓库Hive中 -
大数据应用期末总评
作业要求来源:https://edu.cnblogs.com/campus/gzcc/GZCC-16SE1/homework/3363 大数据分析: 1.将爬虫大作业产生的csv文件上传到HDFS Python爬取到的数据: (1)首先创建一个用于运行本案例的目录bigdatacase (2)在本地 -
Hadoop综合大作业
本次作业来源于:https://edu.cnblogs.com/campus/gzcc/GZCC-16SE1/homework/3363 一、课程评分标准: 分数组成: 考勤 10 平时作业 30 爬虫大作业 25 Hadoop生态安装与配置 10 分布式文件系统HDFS 分布式并行计算MapRed -
Hadoop综合大作业
作业来源:https://edu.cnblogs.com/campus/gzcc/GZCC-16SE1/homework/3363 Hadoop综合大作业 1.将爬虫大作业产生的csv文件 2.对CSV文件进行预处理生成无标题文本文件 3.把hdfs中的文本文件最终导入到数据仓库Hive中 4.在H -
Hadoop综合大作业
本次作业要求来自于:https://edu.cnblogs.com/campus/gzcc/GZCC-16SE1/homework/3363 Hadoop综合大作业 要求: 1.将爬虫大作业产生的csv文件上传到HDFS 2.对CSV文件进行预处理生成无标题文本文件 首先建立一个用于运行本案例的目录 -
Hadoop综合大作业
作业来源:https://edu.cnblogs.com/campus/gzcc/GZCC-16SE1/homework/3363 本次作业是在《爬虫大作业》的基础上进行的,在《爬虫大作业》中。本次作业的任务主要有以下三点: 1.对CSV文件进行预处理生成无标题文本文件,将爬虫大作业产生的csv文件