要使用Python抓取网页内容并保存到CSV文件,可以按照以下步骤进行操作:
requests用于发送HTTP请求,csv用于操作CSV文件。import requests import csv requests.get()方法来发送GET请求,并使用.text属性来获取网页内容。url = "http://example.com" # 替换为需要抓取的网页URL response = requests.get(url) content = response.text BeautifulSoup)来解析网页。# 使用示例:使用正则表达式从网页内容中提取所有的链接 import re pattern = '<a href="(.*?)".*?>' links = re.findall(pattern, content) csv.writer对象来写入CSV文件,通过调用其writerow()方法来写入一行数据。filename = "data.csv" # 替换为所需的CSV文件名 with open(filename, 'w', newline='') as file: writer = csv.writer(file) writer.writerow(["Link"]) # 写入表头 for link in links: writer.writerow([link]) # 写入数据 完整的代码示例:
import requests import csv import re url = "http://example.com" # 替换为需要抓取的网页URL response = requests.get(url) content = response.text pattern = '<a href="(.*?)".*?>' links = re.findall(pattern, content) filename = "data.csv" # 替换为所需的CSV文件名 with open(filename, 'w', newline='') as file: writer = csv.writer(file) writer.writerow(["Link"]) # 写入表头 for link in links: writer.writerow([link]) # 写入数据 运行上述代码后,会在当前目录下生成一个名为"data.csv"的文件,其中包含了抓取到的网页链接信息。根据实际需求,可以调整代码来提取其他所需的数据并写入CSV文件。