我们首先来看下实例代码:
import urllib import urllib.request import re from urllib import parse #抓取贴吧页面数量信息 def gettiebalistnumbers(name): #计算搜索的关键词有多少页 输入名字 返回页数 url="https://tieba.baidu.com/f" headers = {"User-Agent": "Mozilla/5.0 (Windows NT 6.1; WOW64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/63.0.3239.132 Safari/537.36 QIHU 360SE"} # header 字典形式 word = {"kw": name} # 接口 贴吧的名字 word = parse.urlencode(word) # 编码成字符串 url = url + word # 拼接url request = urllib.request.Request(url, headers=headers) # 发送请求 # 也可以通过调用Request.add_header() 添加/修改一个特定的 header request.add_header("Connection", "keep-alive") # 一直活着 response = urllib.request.urlopen(request) # 打开请求 data = response.read().decode("utf-8") # 读取数据 print(response.code) # 可以查看相应状态码 restr = "<span class=\"card_infoNum\">([\s\S]*" # 正则这个贴吧有多少帖子 regex = re.compile(restr, re.IGNORECASE) mylist = regex.findall(data) #寻找页面所有符合条件的 tienumbers = mylist[0].replace(",","") #替换逗号 tienumbers = eval(tienumbers) #str转化为数字 #print(tienumbers) restr = "<span class=\"card_menNum\">([\s\S]*" # 正则关注贴吧的数 regex = re.compile(restr, re.IGNORECASE) mylist = regex.findall(data) # 寻找页面所有符合条件的 Peoplenumbers = mylist[0].replace(",", "") # 替换逗号 Peoplenumbers = eval(Peoplenumbers) # str转化为数字 #print(Peoplenumbers) return tienumbers,Peoplenumbers def gettiebalist(name): #抓取所有的符合name的页数 输入搜索关键词,返回所有的页数url numberstuple=gettiebalistnumbers(name) #(元组) tienumbers=numberstuple[1] #帖子的数量 tiebalist = [] if tienumbers%54==0: #生成页面列表 for i in range(tienumbers//54): tiebalist.append("https://tieba.baidu.com/f"+name+"&pn="+str(i*50)) else: for i in range(tienumbers//54+1): tiebalist.append("https://tieba.baidu.com/f"+name+"&pn="+str(i*50)) #print(tiebalist) return tiebalist def geturllistformpage(url): #抓取页面的每个帖子url 输入一页url 返回列表内的的所有url headers = {"User-Agent": "Mozilla/5.0 (compatible; MSIE 9.0; Windows NT 6.1; Trident/5.0);"} request = urllib.request.Request(url, headers=headers) # 发起请求, # 也可以通过调"utf-8","ignore")#打开请求,抓取数据 #print(response.code) # 可以查看响应状态码 restr = "<ul id=\"thread_list\" class=\"threadlist_bright j_threadlist_bright\">([\s\S]*"thread_list_bottom clearfix\">" # 正则表达式,()只要括号内的数据 regex = re.compile(restr, re.IGNORECASE) mylist = regex.findall(data) #print(mylist[0])#抓取整个表格 restr = "href=\"/p/(\d+)\"" # 正则表达式,()只要括号内的数据 regex = re.compile(restr, re.IGNORECASE) urltitlelist = regex.findall(data) #print(urltitlelist) #抓取的url变化的数字 urllist=[] for title in urltitlelist: urllist.append("http://tieba.baidu.com/p/"+title) #拼接链接 #print(urllist) #得到每个页面的帖子url列表 return urllist def getallurllist(url): #获取每一页里面的分页 输入一个帖子url 输出所有分页url链接 headers = {"User-Agent": "Mozilla/5.0 (Windows NT 6.1; WOW64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/63.0.3239.132 Safari/537.36 QIHU 360SE"} # header 字典形式 request = urllib.request.Request(url, headers=headers) # 发送请求 # 也可以通过调用Request.add_header() 添加/修改一个特定的 header response = urllib.request.urlopen(request) # 打开请求 tiebadata = response.read().decode("utf-8", "ignore") # 读取数据 allurllist1=[] restr = "共<span class=\"red\">(\d+)</span>页</li>" # 正则表达式,()只要括号内的数据 regex = re.compile(restr, re.IGNORECASE) numalllist = regex.findall(tiebadata) nums=eval(numalllist[0]) for i in range(1,nums+1): allurllist1.append(url+""+str(i)) return allurllist1 # print(urltitlelist) #抓取的url变化的数字 def getpagedata(url): headers = {"User-Agent": "Mozilla/5.0 (Windows NT 6.1; WOW64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/63.0.3239.132 Safari/537.36 QIHU 360SE"} # header 字典形式 request = urllib.request.Request(url, headers=headers) # 发送请求 # 也可以通过调用Request.add_header() 添加/修改一个特定的 header response = urllib.request.urlopen(request) # 打开请求 pagedata = response.read().decode("utf-8","ignore") #读取数据 return pagedata def getemaillistfrompage(pagedata): #在帖子内页面,把每一个邮箱抓取下来 输入一个帖子url 返回邮箱 emaillist = [] restr = "[A-Z0-9._%+-]+[@][A-Z0-9.-]+\.[A-Z]{2,4}" # 正则表达式,()只要括号内的数据 regex = re.compile(restr, re.IGNORECASE) emaillist = regex.findall(pagedata) return emaillist #返回提取的邮箱列表 def QQlistfrompage(url): #在帖子内页面,把每一个邮箱抓取下来 输入一个帖子url 返回QQ headers = {"User-Agent": "Mozilla/5.0 (Windows NT 6.1; WOW64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/63.0.3239.132 Safari/537.36 QIHU 360SE"} # header 字典形式 request = urllib.request.Request(url, headers=headers) response = urllib.request.urlopen(request) #data = response.read().decode("utf-8","ignore") #读取数据 QQlist = [] while True: line = response.readline() line = line.decode('utf-8') if not line: break if line.find("QQ") != -1 or line.find("Qq") != -1 or line.find("qq") != -1: restr = "[1-9]\\d{4,10}" # 正则表达式,()只要括号内的数据 regex = re.compile(restr, re.IGNORECASE) templist = regex.findall(line) QQlist.extend(templist) return QQlist #print(gettiebalistnumbers("python")) #print(gettiebalist("python3")) #mylist=gettiebalist("python3") #for line in mylist: # print(line) #geturllistformpage("https://tieba.baidu.com/f") #print(getemaillistfrompage(getpagedata("http://tieba.baidu.com/p/6490450301"))) #print(QQlistfrompage("http://tieba.baidu.com/p/3950107421")) """ name="qqmail" emailalllist=[] for numberurl in gettiebalist(name): #取出这个关键词 所有页面的url tieziurllist=geturllistformpage(numberurl) #取出每个页面的 帖子url for fentieziurllist in tieziurllist: tieziurllist1=getallurllist(fentieziurllist) for pagetext in tieziurllist1: pagedata=getpagedata(pagetext) #取出每个页面的代码 datas=getemaillistfrompage(pagedata) #正则提取邮箱 if len(datas) !=0: #如果提取的里面一个页面上的一个帖子 邮箱不是空的话 emailalllist.append(datas[0]) print(emailalllist) #测试可以提取一个 贴吧的所有邮箱 """ """ name="qqmail" QQalllist=[] for numberurl in gettiebalist(name): #取出这个关键词 所有页面的url tieziurllist=geturllistformpage(numberurl) #取出每个页面的 帖子url for url in tieziurllist: QQnumberlist=QQlistfrompage(url) #提取的里面一个页面上的一个帖子的QQ #print(QQnumberlist) if len(QQnumberlist) != 0: #如果一个页面QQ不为空的话 for qqdata in QQnumberlist: #一个页面QQ列表遍历 QQalllist.append(qqdata) #添加到列表中 # qq=QQalllist.append(QQnumberlist[0]) #print(QQalllist)# #提取一个贴吧的所有QQ 测试成功 """ name="qqmail" savefilepath="qqmail_qq.txt" savefile=open(savefilepath,"wb") for numberurl in gettiebalist(name): #取出这个关键词 所有页面的url tieziurllist=geturllistformpage(numberurl) #取出每个页面的 帖子url for fenurl in tieziurllist: tieziurllist1=getallurllist(fenurl) #一个页面分页的所有链接 for url in tieziurllist1: QQnumberlist=QQlistfrompage(url) #提取的里面一个页面上的一个帖子的QQ #print(QQnumberlist) if len(QQnumberlist) != 0: #如果一个页面QQ不为空的话 print(QQnumberlist) qqstr=" ".join(QQnumberlist) savefile.write((qqstr+"\r\n").encode("utf-8")) # qq=QQalllist.append(QQnumberlist[0]) #最后写入文件测试, 写入qq.txt 69K # TimeoutError: [WinError 10060] 由于连接方在一段时间后没有正确答复或连接的主机没有反应,连接尝试失败。 #可优化为timeout= 或者导入 import time 进行time.sleep(3) 睡眠定时访问操作, #为避免出错,还需再访问url时加入 try except 出错避过
知识点扩充:
Proxy 的设置
urllib2 默认会使用环境变量 http_proxy 来设置 HTTP Proxy。如果想在程序中明确控制 Proxy 而不受环境变量的影响,可以使用下面的方式
import urllib2 enable_proxy = True proxy_handler = urllib2.ProxyHandler({"http" : 'http://some-proxy.com:8080'}) null_proxy_handler = urllib2.ProxyHandler({}) if enable_proxy: opener = urllib2.build_opener(proxy_handler) else: opener = urllib2.build_opener(null_proxy_handler) urllib2.install_opener(opener)
这里要注意的一个细节,使用 urllib2.install_opener() 会设置 urllib2 的全局 opener 。这样后面的使用会很方便,但不能做更细粒度的控制,比如想在程序中使用两个不同的 Proxy 设置等。比较好的做法是不使用 install_opener 去更改全局的设置,而只是直接调用 opener 的 open 方法代替全局的 urlopen 方法。
以上就是python3用urllib抓取贴吧邮箱和QQ实例的详细内容,更多关于python3中运用urllib抓取贴吧的邮箱以及QQ的资料请关注其它相关文章!
免责声明:本站资源来自互联网收集,仅供用于学习和交流,请遵循相关法律法规,本站一切资源不代表本站立场,如有侵权、后门、不妥请联系本站删除!
《魔兽世界》大逃杀!60人新游玩模式《强袭风暴》3月21日上线
暴雪近日发布了《魔兽世界》10.2.6 更新内容,新游玩模式《强袭风暴》即将于3月21 日在亚服上线,届时玩家将前往阿拉希高地展开一场 60 人大逃杀对战。
艾泽拉斯的冒险者已经征服了艾泽拉斯的大地及遥远的彼岸。他们在对抗世界上最致命的敌人时展现出过人的手腕,并且成功阻止终结宇宙等级的威胁。当他们在为即将于《魔兽世界》资料片《地心之战》中来袭的萨拉塔斯势力做战斗准备时,他们还需要在熟悉的阿拉希高地面对一个全新的敌人──那就是彼此。在《巨龙崛起》10.2.6 更新的《强袭风暴》中,玩家将会进入一个全新的海盗主题大逃杀式限时活动,其中包含极高的风险和史诗级的奖励。
《强袭风暴》不是普通的战场,作为一个独立于主游戏之外的活动,玩家可以用大逃杀的风格来体验《魔兽世界》,不分职业、不分装备(除了你在赛局中捡到的),光是技巧和战略的强弱之分就能决定出谁才是能坚持到最后的赢家。本次活动将会开放单人和双人模式,玩家在加入海盗主题的预赛大厅区域前,可以从强袭风暴角色画面新增好友。游玩游戏将可以累计名望轨迹,《巨龙崛起》和《魔兽世界:巫妖王之怒 经典版》的玩家都可以获得奖励。
更新日志
- 中国武警男声合唱团《辉煌之声1天路》[DTS-WAV分轨]
- 紫薇《旧曲新韵》[320K/MP3][175.29MB]
- 紫薇《旧曲新韵》[FLAC/分轨][550.18MB]
- 周深《反深代词》[先听版][320K/MP3][72.71MB]
- 李佳薇.2024-会发光的【黑籁音乐】【FLAC分轨】
- 后弦.2012-很有爱【天浩盛世】【WAV+CUE】
- 林俊吉.2012-将你惜命命【美华】【WAV+CUE】
- 晓雅《分享》DTS-WAV
- 黑鸭子2008-飞歌[首版][WAV+CUE]
- 黄乙玲1989-水泼落地难收回[日本天龙版][WAV+CUE]
- 周深《反深代词》[先听版][FLAC/分轨][310.97MB]
- 姜育恒1984《什么时候·串起又散落》台湾复刻版[WAV+CUE][1G]
- 那英《如今》引进版[WAV+CUE][1G]
- 蔡幸娟.1991-真的让我爱你吗【飞碟】【WAV+CUE】
- 群星.2024-好团圆电视剧原声带【TME】【FLAC分轨】