阅读量:0
要使用Python抓取网页内容并保存到CSV文件,可以按照以下步骤进行操作:
- 导入所需的库,包括
requests
用于发送HTTP请求,csv
用于操作CSV文件。
import requests import csv
- 发送HTTP请求获取网页内容,并将其存储在一个变量中。可以使用
requests.get()
方法来发送GET请求,并使用.text
属性来获取网页内容。
url = "http://example.com" # 替换为需要抓取的网页URL response = requests.get(url) content = response.text
- 解析网页内容,提取所需的数据。可以使用Python内置的字符串操作方法或者使用第三方库(如
BeautifulSoup
)来解析网页。
# 使用示例:使用正则表达式从网页内容中提取所有的链接 import re pattern = '<a href="(.*?)".*?>' links = re.findall(pattern, content)
- 创建一个CSV文件,并将数据写入其中。可以使用
csv.writer
对象来写入CSV文件,通过调用其writerow()
方法来写入一行数据。
filename = "data.csv" # 替换为所需的CSV文件名 with open(filename, 'w', newline='') as file: writer = csv.writer(file) writer.writerow(["Link"]) # 写入表头 for link in links: writer.writerow([link]) # 写入数据
完整的代码示例:
import requests import csv import re url = "http://example.com" # 替换为需要抓取的网页URL response = requests.get(url) content = response.text pattern = '<a href="(.*?)".*?>' links = re.findall(pattern, content) filename = "data.csv" # 替换为所需的CSV文件名 with open(filename, 'w', newline='') as file: writer = csv.writer(file) writer.writerow(["Link"]) # 写入表头 for link in links: writer.writerow([link]) # 写入数据
运行上述代码后,会在当前目录下生成一个名为"data.csv"的文件,其中包含了抓取到的网页链接信息。根据实际需求,可以调整代码来提取其他所需的数据并写入CSV文件。