数据采集与融合技术2021 (福州大学)

  • 10组-Alpha冲刺-2/6

    一、基本情况 队名:要有格局才对 组长博客 小组人数:10 二、冲刺概况汇报 根据拟定的团队分工 在充分尊重大家意愿的前提下、团队分工如下(用名字唯一标识符标识): 前端组:萍、翁 后端组:石、林 数据组:硕、源、松、熙 管理组:苏、唐 alpha_1汇总: 组名 第一阶段分工 第二阶段 第三阶段
    paulncle   2021-11-10 23:54   0   21
  • 第四次实验

    #作业① ##要求: ###熟练掌握 scrapy 中 Item、Pipeline 数据的序列化输出方法,用Scrapy+Xpath+MySQL数据库存储技术路线爬取当当网站图书数据。 候选网站 (http://www.dangdang.com/) ##输出信息: MySQL数据库存储和输出格式如下
    Flyme10086   2021-11-10 23:53   0   14
  • 数据采集与融合技术实践第四次作业

    数据采集与融合技术实践第四次作业 姓名:刘心怡 学号:031904134 班级:2019级大数据一班 #作业① ##1)实验内容及结果 ###①实验内容 要求:熟练掌握 scrapy 中 Item、Pipeline 数据的序列化输出方法;Scrapy+Xpath+MySQL数据库存储技术路线爬取当当
    LYinkoy   2021-11-10 23:22   0   25
  • 数据采集与融合技术-第四次大作业

    作业①: 1.要求:熟练掌握 scrapy 中 Item、Pipeline 数据的序列化输出方法;Scrapy+Xpath+MySQL数据库存储技术路线爬取当当网站图书数据 2.候选网站:http://search.dangdang.com/?key=python&act=input 3.关键词:学
    金木s   2021-11-10 20:54   0   23
  • 数据采集第四次作业

    作业一 要求: 熟练掌握 scrapy 中 Item、Pipeline 数据的序列化输出方法; Scrapy+Xpath+MySQL数据库存储技术路线爬取当当网站图书数据 候选网站:http://www.dangdang.com/ 关键词:学生自由选择 输出信息: MySQL数据库存储和输出格式如下
    bInbinL   2021-11-10 20:06   0   42
  • 10组-Alpha冲刺-2/6

    一、基本情况 队名:要有格局才对 组长博客 小组人数:10 二、冲刺概况汇报 根据拟定的团队分工 在充分尊重大家意愿的前提下、团队分工如下(用名字唯一标识符标识): 前端组:萍、翁 后端组:石、林 数据组:硕、源、松、熙 管理组:苏、唐 alpha_1汇总: 组名 第一阶段分工 第二阶段 第三阶段
    Aplical   2021-11-10 19:01   0   6
  • 10组-Alpha冲刺-2/6

    一、基本情况 队名:要有格局才对 组长博客 小组人数:10 二、冲刺概况汇报 根据拟定的团队分工 在充分尊重大家意愿的前提下、团队分工如下(用名字唯一标识符标识): 前端组:萍、翁 后端组:石、林 数据组:硕、源、松、熙 管理组:苏、唐 alpha_1汇总: 组名 第一阶段分工 第二阶段 第三阶段
    linzeX   2021-11-10 18:37   0   14
  • 数据采集 实验四

    1.作业① 1.1作业内容 要求:熟练掌握 scrapy 中 Item、Pipeline 数据的序列化输出方法; ​ Scrapy+Xpath+MySQL数据库存储技术路线爬取当当网站图书数据 候选网站:http://www.dangdang.com/ 关键词:学生自由选择 输出信息: MySQL数
    با   2021-11-10 18:00   0   34
  • 数据采集与融合技术实践第四次实验作业

    数据采集与融合技术实践第四次实验作业 作业①: 1.题目 **要求:**熟练掌握 scrapy 中 Item、Pipeline 数据的序列化输出方法;Scrapy+Xpath+MySQL数据库存储技术路线爬取当当网站图书数据 **候选网站:**http://www.dangdang.com/ **关
    zhuangxinpeng   2021-11-10 17:37   0   25
  • [数据采集]实验四

    作业① 1.1题目 完整代码 要求:熟练掌握 scrapy 中 Item、Pipeline 数据的序列化输出方法; 使用Scrapy+Xpath+MySQL数据库存储技术路线爬取当当网站图书数据 1.2实现过程 1.2.1 观察html源代码 可以看到每一本书的全部信息存放在一个li标签中 接着查看
    penguin02   2021-11-10 14:59   0   51