15商软3班 (广州商学院)

  • 班级所有博文发布时间分布(24小时制):
  • Hadoop综合大作业

    Hadoop综合大作业 : 1.用Hive对爬虫大作业产生的文本文件(或者英文词频统计下载的英文长篇小说)进行词频统计。 2.用Hive对爬虫大作业产生的csv文件进行数据分析,写一篇博客描述你的分析过程和分析结果。 一:用Hive对爬虫大作业产生的文本文件(或者英文词频统计下载的英文长篇小说)进行
    博威袁他就是袁威博   2018-05-25 20:50   0   101
  • Hadoop综合大作业

    要求: 1.用Hive对爬虫大作业产生的文本文件(或者英文词频统计下载的英文长篇小说)进行词频统计。 网上下载经典长篇英文小说The Old Man and Sea,保存到wc文件中,命名为sea.txt。 启动hadoop集群 将wc文件夹的sea.txt上传文件至hdfs的data文件夹 启动h
    204罗德广   2018-05-25 20:48   0   102
  • Hadoop综合大作业

    1.用Hive对爬虫大作业产生的文本文件(或者英文词频统计下载的英文长篇小说)进行词频统计。 2.用Hive对爬虫大作业产生的csv文件进行数据分析,写一篇博客描述你的分析过程和分析结果。 1.用Hive对爬虫大作业产生的文本文件(或者英文词频统计下载的英文长篇小说)进行词频统计。 因为python
    208胡德霖   2018-05-25 19:43   0   66
  • HADOOP综合大作业

    1.用Hive对爬虫大作业产生的文本文件(或者英文词频统计下载的英文长篇小说)进行词频统计。 (1)开启所有的服务,并创建文件夹wwc (2)查看目录下所有文件 (3)把hdfs文件系统中文件夹里的文本文件load进去。 (4)进入hive,并查看所有的表 (5)创建表word,,写hiveQL命令
    何晓锋   2018-05-25 19:31   0   92
  • Hadoop综合大作业

    1.用Hive对爬虫大作业产生的文本文件(或者英文词频统计下载的英文长篇小说)词频统计。 首先开启相关的程序,hadoop、hbase 使用hdfs命令把下载的英文长篇小说复制进hdfs文件夹中 然后打开hive命令行将hdfs中的长篇小说加入数据表 然后查看数据表中的数据 然后使用相关的命令进行词
    229曾颖鑫   2018-05-25 19:28   0   112
  • Hadoop综合大作业

    一、用Hive对爬虫大作业产生的文本文件(或者英文词频统计下载的英文长篇小说)词频统计。 1.启动hadoop 2.Hdfs上创建文件夹并查看 3.上传英文词频统计文本至hdfs 4.启动Hive 5.导入文件内容到表docs并查看 6.进行词频统计,结果放在表t_word_count里 7.查看统
    228黄施策   2018-05-25 19:25   0   81
  • Hadoop综合大作业

    1.用Hive对爬虫大作业产生的文本文件(或者英文词频统计下载的英文长篇小说)进行词频统计。 启动hadoop: 1 2 start-all.sh jps 1 2 start-all.sh jps 1 2 start-all.sh jps start-all.sh jps 查看hdfs上的文件夹:
    231黄宋佳   2018-05-25 19:25   0   99
  • Hadoop综合大作业

    1.用Hive对爬虫大作业产生的文本文件(或者英文词频统计下载的英文长篇小说)进行词频统计。 启动hadoop Hdfs上创建文件夹 data 为名字 上传文件至hdfs 启动Hive 创建原始文档表 导入文件内容到表docs并查看 导入 查看 用HQL进行词频统计,结果放在表word_count里
    196-陈文豪   2018-05-25 19:08   0   186
  • Hadoop综合大作业

    1.用Hive对爬虫大作业产生的文本文件(或者英文词频统计下载的英文长篇小说)进行词频统计。 将英语长篇小说的文本文件下载并放于虚拟机 /home/hadoop/zhen 目录下: 启动hadoop: 上传到hdfs/data文件中: 启动Hive 在hive数据库创建表 zhen: 导入文本zhe
    206梁荣臻   2018-05-25 18:46   0   64
  • Hadoop综合大作业

    Hadoop综合大作业 要求: 1.用Hive对爬虫大作业产生的文本文件(或者英文词频统计下载的英文长篇小说)词频统计。 启动hadoop 用hdfs创建文件夹 上传自己找的英文文章到hdfs上 启动hive,创建novels原始文档表 导入文件内容到表docs并查看 用HQL进行词频统计,结果放在
    223陈子翔   2018-05-25 18:30   0   64