python爬虫模块selenium简介
selenium主要是用来做自动化测试,支持多种浏览器,爬虫中主要用来解决JavaScript渲染问题。
模拟浏览器进行网页加载,当requests,urllib无法正常获取网页内容的时候
一、声明浏览器对象
注意点一,Python文件名或者包名不要命名为selenium,会导致无法导入
from selenium import webdriver #webdriver可以认为是浏览器的驱动器,要驱动浏览器必须用到webdriver,支持多种浏览器,这里以Chrome为例 browser = webdriver.Chrome()
二、访问页面并获取网页html
from selenium import webdriver browser = webdriver.Chrome() browser.get('https://www.taobao.com') print(browser.page_source)#browser.page_source是获取网页的全部html browser.close()
三、查找元素
单个元素
from selenium import webdriver browser = webdriver.Chrome() browser.get('https://www.jb51.net') input_first = browser.find_element_by_id('q') input_second = browser.find_element_by_css_selector('#q') input_third = browser.find_element_by_xpath('//*[@id="q"]') print(input_first,input_second,input_third) browser.close()
常用的查找方法
find_element_by_name
find_element_by_xpath
find_element_by_link_text
find_element_by_partial_link_text
find_element_by_tag_name
find_element_by_class_name
find_element_by_css_selector
也可以使用通用的方法
from selenium import webdriver from selenium.webdriver.common.by import By browser = webdriver.Chrome() browser.get('https://www.jb51.net') input_first = browser.find_element(BY.ID,'q')#第一个参数传入名称,第二个传入具体的参数 print(input_first) browser.close()
多个元素,elements多个s
input_first = browser.find_elements_by_id(‘q')
四、元素交互操作-搜索框传入关键词进行自动搜索
from selenium import webdriver import time browser = webdriver.Chrome() browser.get('https://www.jb51.net') input = browser.find_element_by_id('q')#找到搜索框 input.send_keys('iPhone')#传送入关键词 time.sleep(5) input.clear()#清空搜索框 input.send_keys('男士内裤') button = browser.find_element_by_class_name('btn-search')#找到搜索按钮 button.click()
更多操作
http://selenium-python.readthedocs.io/api.html#module-selenium.webdriver.remote.webelement#可以有属性、截图等等
五、交互动作,驱动浏览器进行动作,模拟拖拽动作,将动作附加到动作链中串行执行
from selenium import webdriver from selenium.webdriver import ActionChains#引入动作链 browser = webdriver.Chrome() url = '//www.jb51.net/try/try.php"htmlcode">from selenium import webdriver browser = webdriver.Chrome() browser.get('https://www.jb51.net/explore') browser.execute_script('window.scrollTo(0, document.body.scrollHeight)') browser.execute_script('alert("To Bottom")')七、获取元素信息
获取属性
from selenium import webdriver from selenium.webdriver import ActionChains browser = webdriver.Chrome() url = 'https://www.jb51.net/explore' browser.get(url) logo = browser.find_element_by_id('zh-top-link-logo')#获取网站logo print(logo) print(logo.get_attribute('class')) browser.close()获取文本值
from selenium import webdriver browser = webdriver.Chrome() url = 'https://www.jb51.net/explore' browser.get(url) input = browser.find_element_by_class_name('zu-top-add-question') print(input.text)#input.text文本值 browser.close()获取Id,位置,标签名,大小
from selenium import webdriver browser = webdriver.Chrome() url = 'https://www.jb51.net/explore' browser.get(url) input = browser.find_element_by_class_name('zu-top-add-question') print(input.id)#获取id print(input.location)#获取位置 print(input.tag_name)#获取标签名 print(input.size)#获取大小 browser.close()八、Frame操作
frame相当于独立的网页,如果在父类网frame查找子类的,则必须切换到子类的frame,子类如果查找父类也需要先切换
from selenium import webdriver from selenium.common.exceptions import NoSuchElementException browser = webdriver.Chrome() url = '//www.jb51.net/try/try.php"htmlcode">from selenium import webdriver browser = webdriver.Chrome() browser.implicitly_wait(10)#等待十秒加载不出来就会抛出异常,10秒内加载出来正常返回 browser.get('https://www.jb51.net/explore') input = browser.find_element_by_class_name('zu-top-add-question') print(input)显式等待
指定一个等待条件,和一个最长等待时间,程序会判断在等待时间内条件是否满足,如果满足则返回,如果不满足会继续等待,超过时间就会抛出异常
from selenium import webdriver from selenium.webdriver.common.by import By from selenium.webdriver.support.ui import WebDriverWait from selenium.webdriver.support import expected_conditions as EC browser = webdriver.Chrome() browser.get('https://www.jb51.net/') wait = WebDriverWait(browser, 10) input = wait.until(EC.presence_of_element_located((By.ID, 'q'))) button = wait.until(EC.element_to_be_clickable((By.CSS_SELECTOR, '.btn-search'))) print(input, button)title_is 标题是某内容
title_contains 标题包含某内容
presence_of_element_located 元素加载出,传入定位元组,如(By.ID, ‘p')
visibility_of_element_located 元素可见,传入定位元组
visibility_of 可见,传入元素对象
presence_of_all_elements_located 所有元素加载出
text_to_be_present_in_element 某个元素文本包含某文字
text_to_be_present_in_element_value 某个元素值包含某文字
frame_to_be_available_and_switch_to_it frame加载并切换
invisibility_of_element_located 元素不可见
element_to_be_clickable 元素可点击
staleness_of 判断一个元素是否仍在DOM,可判断页面是否已经刷新
element_to_be_selected 元素可选择,传元素对象
element_located_to_be_selected 元素可选择,传入定位元组
element_selection_state_to_be 传入元素对象以及状态,相等返回True,否则返回False
element_located_selection_state_to_be 传入定位元组以及状态,相等返回True,否则返回False
alert_is_present 是否出现Alert
详细内容
http://selenium-python.readthedocs.io/api.html#module-selenium.webdriver.support.expected_conditions
十一、前进后退-实现浏览器的前进后退以浏览不同的网页
import time from selenium import webdriver browser = webdriver.Chrome() browser.get('https://www.jb51.net/') browser.get('https://www.jb51.net/') browser.get('https://www.jb51.net/') browser.back() time.sleep(1) browser.forward() browser.close()十二、Cookies
from selenium import webdriver browser = webdriver.Chrome() browser.get('https://www.jb51.net/explore') print(browser.get_cookies()) browser.add_cookie({'name': 'name', 'domain': 'www.jb51.net', 'value': 'germey'}) print(browser.get_cookies()) browser.delete_all_cookies() print(browser.get_cookies())选项卡管理 增加浏览器窗口
import time from selenium import webdriver browser = webdriver.Chrome() browser.get('https://www.jb51.net') browser.execute_script('window.open()') print(browser.window_handles) browser.switch_to_window(browser.window_handles[1]) browser.get('https://www.jb51.net') time.sleep(1) browser.switch_to_window(browser.window_handles[0]) browser.get('//www.jb51.net')十三、异常处理
from selenium import webdriver browser = webdriver.Chrome() browser.get('https://www.jb51.net') browser.find_element_by_id('hello') from selenium import webdriver from selenium.common.exceptions import TimeoutException, NoSuchElementException browser = webdriver.Chrome() try: browser.get('https://www.jb51.net') except TimeoutException: print('Time Out') try: browser.find_element_by_id('hello') except NoSuchElementException: print('No Element') finally: browser.close()本文主要讲解了python爬虫模块selenium详细使用方法与实例全解,更多关于python爬虫模块的使用知识请查看下面的相关链接
免责声明:本站资源来自互联网收集,仅供用于学习和交流,请遵循相关法律法规,本站一切资源不代表本站立场,如有侵权、后门、不妥请联系本站删除!
更新日志
- 柏菲·胭花四乐《胭花四乐》限量开盘母带ORMCD[低速原抓WAV+CUE]
- 群星《监听耳机天碟》2018[WAV分轨][1G]
- 群星《娱协奖原创金曲合辑》滚石[WAV+CUE][1.1G]
- 罗大佑《美丽岛》2CD[WAV+CUE][1.1G]
- 言承旭.2009-多出来的自由【SONY】【WAV+CUE】
- 赤道.2000-精选2CD【ACM】【WAV+UCE】
- 许廷铿.2017-神奇之旅【华纳】【WAV+CUE】
- 李克勤《罪人》环球[WAV+CUE][1G]
- 陈粒2024《乌有乡地图》有此山文化[FLAC分轨][1G]
- 蔡依林《MYSELF》 奢华庆菌版 2CD[WAV+CUE][1.5G]
- 刘春美《心与心寻世界名曲中文版》新京文[低速原抓WAV+CUE]
- 朱逢博《蔷薇蔷薇处处开》[FLAC+CUE]
- 姚璎格2005《心在哭泣》龙韵[WAV分轨]
- 费玉清《费玉清收藏》 2CD 华纳[WAV+CUE][1G]
- 徐怀钰《LOVE》台湾首版[WAV+CUE][1G]