可以使用Beautiful Soup库进行网页解析,然后通过改变URL的参数来抓取不同页的内容。以下是一个示例代码:
import requests
from bs4 import BeautifulSoup
def scrape_page(url):
# 发送HTTP请求获取网页内容
response = requests.get(url)
# 使用Beautiful Soup解析网页内容
soup = BeautifulSoup(response.text, 'html.parser')
# 在这里编写解析网页的代码,提取所需的信息
# 返回解析后的数据
return parsed_data
def scrape_multiple_pages(base_url, num_pages):
data = []
for page in range(1, num_pages+1):
# 构造每一页的URL
url = base_url + f'?page={page}'
# 调用抓取函数获取解析后的数据
page_data = scrape_page(url)
# 将每一页的数据添加到列表中
data.extend(page_data)
return data
# 示例用法
base_url = 'https://example.com/paginated_data'
num_pages = 5
scraped_data = scrape_multiple_pages(base_url, num_pages)
print(scraped_data)
在上述示例中,scrape_page
函数用于抓取指定页的内容,并返回解析后的数据。scrape_multiple_pages
函数用于循环抓取多个页面的内容,并将每一页的数据添加到一个列表中。你可以根据实际情况修改这些函数来适应你的需求。
上一篇:Beautiful Soup返回一个元素标签,但将其视为None类型。
下一篇:Beautiful Soup分页,find_all无法找到next_page类中的文本。还需要从URL中提取数据。