阅读量:0
要爬取某个网站的图片,可以使用Python中的requests库和BeautifulSoup库来实现。下面是一个简单的示例代码:
import requests from bs4 import BeautifulSoup import os # 要爬取的网站URL url = "https://www.example.com" # 发送GET请求获取网页内容 response = requests.get(url) # 使用BeautifulSoup解析网页内容 soup = BeautifulSoup(response.content, "html.parser") # 创建一个保存图片的文件夹 os.makedirs("images", exist_ok=True) # 找到所有的图片标签 img_tags = soup.find_all("img") # 逐个下载图片并保存到文件夹中 for img_tag in img_tags: # 获取图片的URL img_url = img_tag["src"] # 发送GET请求下载图片 img_response = requests.get(img_url) # 提取图片文件名 img_filename = img_url.split("/")[-1] # 保存图片到文件夹中 with open("images/" + img_filename, "wb") as img_file: img_file.write(img_response.content) print("下载图片", img_filename, "成功!")
以上代码将会下载指定网站的所有图片,并保存到当前目录下的一个名为"images"的文件夹中。你需要将代码中的"https://www.example.com"替换为你要爬取的网站URL。运行代码后,所有图片将会自动下载并保存到"images"文件夹中。