摘要:建议从简单静态页面开始练习,逐步过渡到复杂项目。可使用官方文档(如 Scrapy 文档)作为参考。
以下是 Python3 编写网络爬虫的简明教程,包含基础步骤和示例代码:
一、常用工具库
请求库Ø Requests:简单易用的 HTTP 请求库
Ø aiohttp:异步 HTTP 客户端(适合高性能爬虫)
解析库Ø BeautifulSoup:HTML/XML 解析库
Ø lxml:支持 XPath 的高性能解析库
Ø parsel:Scrapy 内置的选择器库
框架Ø Scrapy:专业的爬虫框架
Ø Selenium:浏览器自动化工具(应对动态网页)
二、基础爬虫示例
示例1:使用 requests + BeautifulSoup
python
import requests
from bs4 import BeautifulSoup
# 1. 发送请求
url = 'https://example.com'
headers = {'User-Agent': 'Mozilla/5.0'} # 模拟浏览器头
response = requests.get(url, headers=headers)
response.encoding = 'utf-8' # 设置编码
# 2. 解析内容
soup = BeautifulSoup(response.text, 'html.parser')
title = soup.find('h1').text # 获取标题
links = [a['href'] for a in soup.find_all('a')] # 获取所有链接
# 3. 保存结果
with open('output.txt', 'w') as f:
f.write(f"标题: {title}\n链接: {', '.join(links)}")
示例2:使用 XPath 解析(lxml)
python
from lxml import etree
import requests
url = 'https://example.com'
HTML = requests.get(url).text
tree = etree.HTML(html)
# 使用XPath提取数据
results = tree.xpath('//div[@class="content"]/text')
print(results)
三、高级技巧
处理动态内容python
from selenium import webdriver
driver = webdriver.Chrome
driver.get('https://dynamic-site.com')
dynamic_content = driver.find_element_by_class_name('data').text
driver.quit
应对反爬措施Ø 使用代理IP:
python
proxies = {'http': 'http://10.10.1.10:3128'}
requests.get(url, proxies=proxies)
Ø 随机请求头:使用 fake_useragent 库生成
Ø 设置请求延迟:time.sleep(random.uniform(1,3))
异步爬虫python
import aiohttp
import asyncio
async def fetch(url):
async with aiohttp.ClientSession as session:
async with session.get(url) as response:
return await response.text
urls = ['https://site1.com', 'https://site2.com']
tasks = [fetch(url) for url in urls]
results = asyncio.run(asyncio.gather(*tasks))
四、注意事项
遵守规则Ø 检查网站的 robots.txt(如:https://example.com/robots.txt)
Ø 尊重网站设定的 Crawl-delay
异常处理python
try:
response = requests.get(url, timeout=5)
response.raise_for_status # 检查HTTP错误
except requests.Exceptions.RequestException as e:
print(f"请求失败: {e}")
数据存储Ø 文件:CSV、JSON
Ø 数据库:MySQL、MongoDB
Ø 云存储:AWS S3
掌握 HTTP 协议基础学习 HTML 结构/XPath 语法熟悉常见反爬机制及应对策略了解数据库存储基础学习分布式爬虫设计(Scrapy-Redis)建议从简单静态页面开始练习,逐步过渡到复杂项目。可使用官方文档(如 Scrapy 文档)作为参考。
来源:老客数据一点号