刘沙河 刘沙河
首页
  • Go语言基础

    • 数据类型
    • 反射
    • Go指针
  • Go语言进阶

    • go泛型
    • go条件编译
    • cgo教程
    • Go协程调度原理及GPM模型
    • Go内存管理
    • Go垃圾回收机制
    • Go语言内存对齐
  • Go语言实现原理

    • channel 实现原理
    • slice 实现原理
    • map 实现原理
    • sync.Mutex 实现原理
    • 乐观锁CAS 实现原理
    • singlefight 实现原理
  • gin框架

    • gin中间件原理
    • gin路由原理
  • gorm

    • GORM介绍和使用
    • GORM_CURD操作指南
  • go测试

    • benchmark基准测试
    • pprof 性能分析
  • python进阶

    • Numpy&Pandas
    • celery分布式任务队列
  • Django

    • Django 常见命令
    • middleware中间件
    • Django缓存系统
    • Django信号系统
    • Django REST Framework
  • Flask

    • Flask基础知识总结
    • Flask-SQLAlchemy
  • 爬虫

    • aiohttp
    • scrapy框架
  • Mysql

    • Mysql存储引擎和索引
    • MySQL主从复制
    • Mysql读写分离
    • 数据库分库分表
    • Mysql锁
    • Mysql事务和MVCC原理
    • 分库分表带来的读扩散问题
  • Redis

    • redis基础和数据类型
    • redis主从架构
    • redis哨兵架构
    • redis集群模式
    • 如何保证缓存和数据库双写一致
    • redis底层数据结构
    • redis分布式锁
  • Elasticsearch

    • es基本概念
    • es基础语法
    • es倒排索引
  • etcd

    • Go操作etcd
    • Raft原理
    • etcd分布式锁
  • kafka

    • 消息队列MQ总结
    • kafka 概述及原理
    • kafka 消费问题记录
    • 零拷贝技术
    • kafka分区规范
  • RabbitMQ

    • rabbitMQ基础
    • Go操作rabbitmq
  • RocketMQ

    • 可靠消息队列 rocketMQ
  • Http&Https

    • http&https
    • TCP和UDP
    • Ping 原理
  • RPC

    • RPC初识
    • grpc初识和实现
  • gRPC

    • grpc 初识
    • grpc 上下文 metadata
    • grpc 健康检查
    • grpc keepalive
    • grpc 命名解析
    • grpc 中间件&拦截器
    • grpc 负载均衡
    • grpc 身份认证
    • grpc 超时重试
    • grpc 链路追踪
    • grpc-gw将gRPC转RESTfu api
    • grpc-gw自定义选项
  • protobuf

    • protobuf 进阶
    • protobuf 编码原理
  • Docker

    • Docker基础
    • Docker常用命令
    • Dockerfile
    • Docker-Compose
    • Docker多阶段构建
    • Docker Config 教程
    • Docker Swarm 教程
    • Docker Stack 教程
    • Docker Buildx 教程
  • k8s

    • k8s 基础概念
    • k8s 集群架构
    • k8s 工作负载
    • Pod 网络
    • Service 网络
    • 外部接入网络
    • 一张图搞懂k8s各种pod
    • k8s 存储抽象
    • mac快速启动k8s
    • 自制申威架构k8s-reloader
  • go-kit

    • go-kit初识
    • go-kit启动http服务
    • go-kit集成gin启动服务
    • go-kit集成grpc和protobuf
    • go-kit中间件
    • go-kit服务注册发现与负载均衡
    • go-kit限流和熔断
    • go-kit链路追踪
    • go-kit集成Prometheus
  • 设计模式

    • 初识设计模式
    • 创建型模式
    • 结构型模式
    • 行为模式
  • 数据结构

    • 时间轮
    • 堆、双向链表、环形队列
    • 队列:优先队列
    • 队列:延迟队列
  • 算法

    • 递归算法
    • 枚举算法
    • 动态规划
    • 回溯算法
    • 分治算法
    • 贪心算法
    • LRU和LFU
    • 一致性哈希

花开半夏,半夏花开
首页
  • Go语言基础

    • 数据类型
    • 反射
    • Go指针
  • Go语言进阶

    • go泛型
    • go条件编译
    • cgo教程
    • Go协程调度原理及GPM模型
    • Go内存管理
    • Go垃圾回收机制
    • Go语言内存对齐
  • Go语言实现原理

    • channel 实现原理
    • slice 实现原理
    • map 实现原理
    • sync.Mutex 实现原理
    • 乐观锁CAS 实现原理
    • singlefight 实现原理
  • gin框架

    • gin中间件原理
    • gin路由原理
  • gorm

    • GORM介绍和使用
    • GORM_CURD操作指南
  • go测试

    • benchmark基准测试
    • pprof 性能分析
  • python进阶

    • Numpy&Pandas
    • celery分布式任务队列
  • Django

    • Django 常见命令
    • middleware中间件
    • Django缓存系统
    • Django信号系统
    • Django REST Framework
  • Flask

    • Flask基础知识总结
    • Flask-SQLAlchemy
  • 爬虫

    • aiohttp
    • scrapy框架
  • Mysql

    • Mysql存储引擎和索引
    • MySQL主从复制
    • Mysql读写分离
    • 数据库分库分表
    • Mysql锁
    • Mysql事务和MVCC原理
    • 分库分表带来的读扩散问题
  • Redis

    • redis基础和数据类型
    • redis主从架构
    • redis哨兵架构
    • redis集群模式
    • 如何保证缓存和数据库双写一致
    • redis底层数据结构
    • redis分布式锁
  • Elasticsearch

    • es基本概念
    • es基础语法
    • es倒排索引
  • etcd

    • Go操作etcd
    • Raft原理
    • etcd分布式锁
  • kafka

    • 消息队列MQ总结
    • kafka 概述及原理
    • kafka 消费问题记录
    • 零拷贝技术
    • kafka分区规范
  • RabbitMQ

    • rabbitMQ基础
    • Go操作rabbitmq
  • RocketMQ

    • 可靠消息队列 rocketMQ
  • Http&Https

    • http&https
    • TCP和UDP
    • Ping 原理
  • RPC

    • RPC初识
    • grpc初识和实现
  • gRPC

    • grpc 初识
    • grpc 上下文 metadata
    • grpc 健康检查
    • grpc keepalive
    • grpc 命名解析
    • grpc 中间件&拦截器
    • grpc 负载均衡
    • grpc 身份认证
    • grpc 超时重试
    • grpc 链路追踪
    • grpc-gw将gRPC转RESTfu api
    • grpc-gw自定义选项
  • protobuf

    • protobuf 进阶
    • protobuf 编码原理
  • Docker

    • Docker基础
    • Docker常用命令
    • Dockerfile
    • Docker-Compose
    • Docker多阶段构建
    • Docker Config 教程
    • Docker Swarm 教程
    • Docker Stack 教程
    • Docker Buildx 教程
  • k8s

    • k8s 基础概念
    • k8s 集群架构
    • k8s 工作负载
    • Pod 网络
    • Service 网络
    • 外部接入网络
    • 一张图搞懂k8s各种pod
    • k8s 存储抽象
    • mac快速启动k8s
    • 自制申威架构k8s-reloader
  • go-kit

    • go-kit初识
    • go-kit启动http服务
    • go-kit集成gin启动服务
    • go-kit集成grpc和protobuf
    • go-kit中间件
    • go-kit服务注册发现与负载均衡
    • go-kit限流和熔断
    • go-kit链路追踪
    • go-kit集成Prometheus
  • 设计模式

    • 初识设计模式
    • 创建型模式
    • 结构型模式
    • 行为模式
  • 数据结构

    • 时间轮
    • 堆、双向链表、环形队列
    • 队列:优先队列
    • 队列:延迟队列
  • 算法

    • 递归算法
    • 枚举算法
    • 动态规划
    • 回溯算法
    • 分治算法
    • 贪心算法
    • LRU和LFU
    • 一致性哈希
  • Python基础

  • Python进阶

  • Python并发编程

  • Django

  • Flask

  • 爬虫

    • 认识爬虫& request
      • 1. anaconda 安装使用
      • 2.http协议
      • 3.爬虫相关概述
      • 4.反爬机制 & 反反爬策略
      • 5.requests 模块
      • 6.简单爬虫案例
        • 爬取搜狗首页对应的页面源码数据
        • 基于搜狗编写一个简易的网页采集器
      • 7.动态加载的数据 判断与爬取
    • bs4 和 xpath
    • 代理-cookie-验证码识别-模拟登录
    • 线程池-协程-aiohttp-selenium
    • 移动端数据爬取-scrapy框架
    • scrapy框架-媒体文件爬取-middleware
    • 基于CrawlSpider全栈数据爬取,分布式爬虫
  • Python
  • 爬虫
bigox
2021-03-22
目录

认识爬虫& request

# 1. anaconda 安装使用

埃纳康达

  • jupyter notbook 检测 anaconda 是否安装完成

  • 什么是Anaconda:

    • 是一个集成环境:基于数据分析和机器学习的集成开发环境

    • jupyter :超级终端,是anaconda集成环境中提供的一种基于浏览器的可视化开发工具

  • cdm: jupyter notbook 打开浏览器可视化工具,在哪打开根目录就是哪

  • cell

    • code模式:编写代码
    • makedown模式:编写笔记
  • 常用快捷键

    • 插入cell : a,b
    • 删除cell : x
    • 切换cell模式: y ,m
    • 执行cell : shift + enter
    • tab:自动补全
    • shift + table :打开帮助文档

# 2.http协议

  • 概念:

    • http:client和server进行数据交互的某种形式

    • https:

      • 安全的http协议

      • 使用证书密钥加密方式

        # 证书加密方式(面试):
        1.对称密钥加密:...
        2.非对称密钥加密: ...
        3.证书密钥加密:...
        
        1
        2
        3
        4
  • 常用的请求头信息

    • User-Agent :请求载体的身份标识(请求载体很多种,例如浏览器和一段代码)
    • Connection
      • Connection :keep-alive (长连接)
      • Connection :close 结束后断开连接
    • content-type: text/json

# 3.爬虫相关概述

  • 爬虫 : 通过编写的程序模拟浏览器上网,然后让程序去互联网上抓取数据

  • 爬虫分类:

    • 通用爬虫:爬取一整张页面数据.
    • 聚焦爬虫: 爬取页面中局部的数据,一定是建立在通用爬虫的基础上
    • 增量式爬虫: 用来检测网站数据更新的情况,以便怕渠道网站最新更新的资源
  • 爬虫风险:

    • 技术无罪,合理使用
    • 干扰了被访问网站的正常运营
    • 抓取了守法律保护的数据或信息
  • 风险避免:

    • 严格遵守网站的robots协议;
      • robots.txt 文本协议:规定了资源是否可爬
    • 优化代码,避免对母体造成干扰
    • 抓取的内容不传播

# 4.反爬机制 & 反反爬策略

  • robots.txt 文本协议:规定了资源是否可爬

# 5.requests 模块

  • 概念 : 一个基于网络请求的模块.用来模拟浏览器发起请求.

  • requests 编码流程:

    • 环境安装 pip install request
    1. 指定url
    2. 进行请求的发送
    3. 获取响应数据
    4. 持久化的存储

# 6.简单爬虫案例

  1. # 爬取搜狗首页对应的页面源码数据
    import requests
    #step_1
    url = 'https://www.sogou.com'
    #step_2:返回值是一个响应对象
    response = requests.get(url=url)
    #step_3:text返回的是字符串形式的响应数据
    page_text = response.text
    #step_4
    with open('./sogou.html','w',encoding='utf-8') as fp:
        fp.write(page_text)
    
    1
    2
    3
    4
    5
    6
    7
    8
    9
    10
  2. # 基于搜狗编写一个简易的网页采集器
    #解决中文乱码&UA伪装
    wd = input('enter a key:')
    url = 'https://www.sogou.com/web'
    #存储的就是动态的请求参数
    params = {
        'query':wd
    }
    
    # 即将发起请求对应的头信息
    headers = {
        'User-Agent':'Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/76.0.3809.100 Safari/537.36'
    }
    
    #一定需要将params作用到请求中
    #params参数表示的是对请求url参数的封装
    #headers参数是用来实现UA伪装
    response = requests.get(url=url,params=params,headers=headers)
    
    #手动修改响应数据的编码
    response.encoding = 'utf-8'
    
    page_text = response.text
    fileName = wd+'.html'
    with open(fileName,'w',encoding='utf-8') as fp:
        fp.write(page_text)
    print(wd,'下载成功!')
    
    1
    2
    3
    4
    5
    6
    7
    8
    9
    10
    11
    12
    13
    14
    15
    16
    17
    18
    19
    20
    21
    22
    23
    24
    25
    26
  3. 爬取肯德基餐厅位置信息http://www.kfc.com.cn/kfccda/storelist/index.aspx (opens new window)

    post_url = 'http://www.kfc.com.cn/kfccda/ashx/GetStoreList.ashx?op=keyword'
    city = input('enter a city name:')
    data = {
        'cname': '',
        'pid': '',
        'keyword': city,
        'pageIndex': '3',
        'pageSize': '2',
    }
    #data参数表示的就是get方法中的params
    response = requests.post(url=post_url,data=data,headers=headers)
    
    response.json()
    
    1
    2
    3
    4
    5
    6
    7
    8
    9
    10
    11
    12
    13

# 7.动态加载的数据 判断与爬取

# 思考:如何判定一张页面中是否存在动态加载的数据
-抓包工具进行局部搜索
-如果判定出页面中有动态加载的数据如何进行数据的定位?
	使用抓包工具进行全局搜索
-对一个陌生的网站数据进行爬取前一定要判定你爬取的数据是否为动态加载的!!!
1
2
3
4
5
  • 国药管理局数据抓取

    • 爬取企业详情信息:http://125.35.6.84:81/xk/ (opens new window)
    • 分析:
      • 1.网站的首页和企业的详情页的数据都是动态加载出来的
      • 2.分析某一家企业的企业详情数据是怎么来的?
        • 企业详情数据时通过一个ajax请求(post)请求到的.
        • 请求对应的url:http://125.35.6.84:81/xk/itownet/portalAction.do?method=getXkzsById (opens new window)
        • 该请求携带了一个参数🆔xxdxxxx
        • 结论:
          • 1.每家企业详情页的数据都是通过一个post形式的ajax请求请求到的
          • 2.每家企业对应的ajax请求的url都一样,请求方式都是post,只有请求参数id的值不一样.
          • 3.只需要获取每一家企业对应的id值即可获取每一家企业对应的详情数据
      • 需要获取每一家企业的id值
        • 思路:每一家企业的id值应该存储在首页对应的相关请求或者响应中.
        • 结论:每一家企业的id值是存储在首页中的某一个ajax请求对应的响应数据中,只需要将该响应数据中企业的id提取/解析出来后即可.
    #要请求到没一家企业对应的id
    url = 'http://125.35.6.84:81/xk/itownet/portalAction.do?method=getXkzsList'
    data = {
        'on': 'true',
        'page': '1',
        'pageSize': '15',
        'productName': '',
        'conditionType': '1',
        'applyname': '',
        'applysn': '',
    }
    
    fp = open('./company_detail.txt','w',encoding='utf-8')
    
    #该json()的返回值中就有每一家企业的id
    data_dic = requests.post(url=url,data=data,headers=headers).json()
    #解析id
    for dic in data_dic['list']:
        _id = dic['ID']
    #     print(_id)
        #对每一个id对应的企业详情数据进行捕获(发起请求)
        post_url = 'http://125.35.6.84:81/xk/itownet/portalAction.do?method=getXkzsById'
        post_data = {
            'id':_id
        }
        #json的返回值是某一家企业的详情信息
        detail_dic = requests.post(url=post_url,data=post_data,headers=headers).json()
        company_title = detail_dic['epsName']
        address = detail_dic['epsProductAddress']
        
        fp.write(company_title+':'+address+'\n')
        print(company_title,'爬取成功!!!')
    fp.close()
    
    1
    2
    3
    4
    5
    6
    7
    8
    9
    10
    11
    12
    13
    14
    15
    16
    17
    18
    19
    20
    21
    22
    23
    24
    25
    26
    27
    28
    29
    30
    31
    32
    33
#Python#
上次更新: 2023/04/16, 18:35:33
Flask-SQLAlchemy 使用教程
bs4 和 xpath

← Flask-SQLAlchemy 使用教程 bs4 和 xpath→

最近更新
01
go与http代理
05-24
02
自制申威架构k8s-reloader
12-06
03
Docker Buildx 教程
12-01
更多文章>
Theme by Vdoing | Copyright © 2020-2024 小刘扎扎 | MIT License
  • 跟随系统
  • 浅色模式
  • 深色模式
  • 阅读模式