博客
关于我
Request模块实战02 --- 实现简易网页采集器(UA伪装反爬策略、处理有参数url)
阅读量:327 次
发布时间:2019-03-04

本文共 1490 字,大约阅读时间需要 4 分钟。

Request模块实战:简易网页采集器的实现

目录

  • 反爬机制
  • UA伪装
  • 网页采集器
  • 代码实现
  • 解析

一、反爬机制

反爬机制是为了防止爬虫对网站造成过度访问压力而设置的保护措施。常见的反爬方法包括通过UA识别爬虫、监控访问频率、利用Cookie和验证码等。

UA识别爬虫

UA(User Agent)是浏览器请求的身份标识。许多网站会通过UA判断请求是否来自爬虫。爬虫脚本通常会伪装成浏览器,但这也使得反爬机制难以完全阻止爬虫。

访问频率识别

爬虫为了提高效率,通常会在短时间内多次访问同一目标网站。通过监控单IP的访问频率,可以识别出异常的爬虫行为。

Cookie和验证码

Cookie可以用来限制账号的抓取频率,而验证码则可以通过随机性阻止爬虫程序正常执行。


二、UA伪装

UA伪装是一种常用的反爬策略。通过伪装爬虫请求的UA为某款浏览器,可以让目标网站无法识别爬虫行为。

UA的作用

UA是浏览器请求的身份标志。服务器可以通过UA判断请求是否来自浏览器或爬虫程序。爬虫程序通过伪装UA为浏览器可隐藏其爬虫身份。

反爬机制

某些网站会通过UA识别爬虫请求并拒绝数据提供。

反爬策略

通过伪装爬虫请求的UA为某款浏览器,可以有效突破部分反爬机制。


三、网页采集器

网页采集器是一种利用爬虫技术实现定向网页信息抓取的工具。它类似于数据转换器,通过代码与网络数据进行互动。


四、代码实现

以下是实现简易网页采集器的Python代码示例:

import requests# 设置伪装的User-Agentheaders = {    'User-Agent': 'Mozilla/5.0 (Windows NT 10.0; WOW64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/70.0.3538.25 Safari/537.36'}# 输入要爬取的关键词keyword = input('请输入要爬取的关键词:')# 爬取的URLurl = 'https://www.sogou.com/web?'# 发送请求response = requests.get(url=url, params={'query': keyword}, headers=headers)# 获取响应内容page_content = response.text# 存储爬取结果filename = keyword + '.html'with open('data/' + filename, 'w', 'utf-8') as fp:    fp.write(page_content)print(f'{filename} 保存成功,爬取数据已完成!')

解析

UA伪装

通过将爬虫请求的UA设置为常见浏览器的标识,可以让目标网站难以识别爬虫行为。

URL参数处理

代码中通过params参数将关键词传递给目标URL,并处理了URL中的查询参数。

请求与响应

通过requests.get方法发送请求,并获取了服务器返回的网页内容。

数据持久化

爬取到的网页内容以文件形式存储,方便后续使用或查看。


运行说明

  • 输入关键词:程序会提示用户输入要爬取的关键词。
  • 发送请求:程序会使用伪装后的UA发送请求,携带关键词参数。
  • 获取内容:程序会将服务器返回的网页内容提取出来。
  • 存储文件:爬取到的网页内容会以文件名.html的形式保存到data目录下。

  • 测试结果

    打开保存的HTML文件,查看内容是否与目标网页一致。通过F12开发者工具可以查看爬虫请求的实际UA和参数。

    转载地址:http://fweq.baihongyu.com/

    你可能感兴趣的文章
    pandas 版本兼容特定的蟒蛇和NumPy配置吗?
    查看>>
    pandas 生成excel多级表头
    查看>>
    Pandas 的 DataFrame 详解-ChatGPT4o作答
    查看>>
    pandas 读取excel数据,以字典形式输出
    查看>>
    Pandas 读取具有浮点值的 csv 文件会导致奇怪的舍入和小数位数
    查看>>
    pandas 适用,但仅适用于满足条件的行
    查看>>
    pandas 重新采样到每月的特定工作日
    查看>>
    pandas :按移位分组和累加和(GroupBy Shift And Cumulative Sum)
    查看>>
    pandas :检测一个DF和另一个DF之间缺失的列
    查看>>
    Pandas-从具有嵌套列表列表的现有列创建动态列时出错
    查看>>
    Pandas-通过对列和索引的值求和来合并两个数据框
    查看>>
    pandas.columns、get_dummies等用法
    查看>>
    pandas.DataFrame.copy(deep=True) 实际上并不创建深拷贝
    查看>>
    pandas.read_csv()的详解-ChatGPT4o作答
    查看>>
    PANDAS.READ_EXCEL()输出‘;溢出错误:日期值超出范围‘;而不存在日期列
    查看>>
    pandas100个骚操作:再见 for 循环!速度提升315倍!
    查看>>
    Pandas:如何根据其他列值的条件对列进行求和?
    查看>>
    Pandas:对给定列求和 DataFrame 行
    查看>>
    Pandas、Matplotlib、Pyecharts数据分析实践
    查看>>
    Pandas中文官档~基础用法2
    查看>>