阅读量:0
免责声明
感谢您学习本爬虫学习Demo。在使用本Demo之前,请仔细阅读以下免责声明:
- 学习和研究目的:本爬虫Demo仅供学习和研究使用。用户不得将其用于任何商业用途或其他未经授权的行为。
- 合法性:用户在使用本Demo时,应确保其行为符合法律法规。请务必了解并遵守目标网站的服务条款和隐私政策。
- 道德规范:请尊重目标网站的使用条款,不要对其服务器造成过大的负载或影响其正常运行。
- 知识产权保护:抓取的数据应仅用于个人学习和研究,不得用于侵犯版权及其他知识产权的行为。
- 隐私保护:请勿抓取或存储包含个人敏感信息的数据,避免侵犯他人隐私权。
- 责任自负:使用本Demo可能存在一定风险,包括但不限于法律风险、数据丢失、账户封禁等。用户需自行承担所有相关风险和责任。
博主不对因使用本Demo而产生的任何直接或间接损失承担责任。用户应对其使用行为负责,并自行承担所有可能的后果。
重要提示:在使用本Demo前,请确保已详细阅读并理解上述免责声明。如有任何疑虑,请立即停止使用。
学习爬虫的一个demo,只是用了基本的requests和lxml模块
爬取贴吧的某一个话题论坛的帖子标题和链接
import requests from lxml import etree class TieBa: # 初始化请求接口 def __init__(self, name): self.url = "https://tieba.xxx.com/f?kw={}".format(name) self.headers = { "User-Agent": "Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/127.0.0.0 Safari/537.36" } # 发送请求,返回请求返回的html数据 def get_html(self, url): response = requests.get(url, headers=self.headers) with open("TieBa.html", "wb") as f: f.write(response.content) return response.content.decode('utf-8').replace("<!--", "").replace("-->", "") # 解析html def parse_html(self, html): el = etree.HTML(html) a_list = el.xpath('//ul/li//div[@class="threadlist_title pull_left j_th_tit "]/a') data_list = [] for a in a_list: temp = {"title": a.text, "href": "https://tieba.xxx.com/" + a.attrib['href']} data_list.append(temp) # 获取下一页 try: next_url = "https:{}".format(el.xpath('//*[contains(text(), "下一页")]/@href')[0]) except: next_url = None return data_list, next_url # 保存数据 def sava_data(self, data_list): for data in data_list: print(data) def run(self): next_url = self.url while True: html = self.get_html(next_url) data_list, next_url = self.parse_html(html) self.sava_data(data_list) print(next_url) if next_url is None: break if __name__ == '__main__': tb = TieBa("话题") tb.run()
爬取效果图