Python爬虫之-动态网页数据抓取(python抓取动态网页内容)

网友投稿 1360 2022-08-24


Python爬虫之-动态网页数据抓取(python抓取动态网页内容)

什么是AJAX:

AJAX(Asynchronouse JavaScript And XML)异步JavaScript和XML。过在后台与服务器进行少量数据交换,Ajax 可以使网页实现异步更新。这意味着可以在不重新加载整个网页的情况下,对网页的某部分进行更新。传统的网页(不使用Ajax)如果需要更新内容,必须重载整个网页页面。因为传统的在传输数据格式方面,使用的是​​XML​​​语法。因此叫做​​AJAX​​​,其实现在数据交互基本上都是使用​​JSON​​​。使用AJAX加载的数据,即使使用了JS,将数据渲染到了浏览器中,在​​右键->查看网页源代码​​还是不能看到通过ajax加载的数据,只能看到使用这个url加载的html代码。

获取ajax数据的方式:

直接分析ajax调用的接口。然后通过代码请求这个接口。使用Selenium+chromedriver模拟浏览器行为获取数据。

方式

优点

缺点

分析接口

直接可以请求到数据。不需要做一些解析工作。代码量少,性能高。

分析接口比较复杂,特别是一些通过js混淆的接口,要有一定的js功底。容易被发现是爬虫。

selenium

直接模拟浏览器的行为。浏览器能请求到的,使用selenium也能请求到。爬虫更稳定。

代码量多。性能低。

Selenium+chromedriver获取动态数据:

Chrome:​​install selenium

安装​​chromedriver​​:下载完成后,放到不需要权限的纯英文目录下就可以了。

快速入门:

现在以一个简单的获取百度首页的例子来讲下​​Selenium​​​和​​chromedriver​​如何快速入门:

from selenium import webdriver# chromedriver的绝对路径driver_path = r'D:\ProgramApp\chromedriver\chromedriver.exe'# 初始化一个driver,并且指定chromedriver的路径driver = webdriver.Chrome(executable_path=driver_path)# 请求网页driver.get("通过page_source获取网页源代码print(driver.page_source)

selenium常用操作:

更多教程请参考:​​submitTag1 = driver.find_element(By.ID,'su')

​​find_element_by_class_name​​:根据类名查找元素。 等价于:

'su') submitTag1 = driver.find_element(By.CLASS_NAME,'su')

​​find_element_by_name​​:根据name属性的值来查找元素。等价于:

'email') submitTag1 = driver.find_element(By.NAME,'email')

​​find_element_by_tag_name​​:根据标签名来查找元素。等价于:

'div') submitTag1 = driver.find_element(By.TAG_NAME,'div')

​​find_element_by_xpath​​:根据xpath语法来获取元素。等价于:

'//div') submitTag1 = driver.find_element(By.XPATH,'//div')

​​find_element_by_css_selector​​:根据css选择器选择元素。等价于:

'//div') submitTag1 = driver.find_element(By.CSS_SELECTOR,'//div')

要注意,​​find_element​​​是获取第一个满足条件的元素。​​find_elements​​是获取所有满足条件的元素。

操作表单元素:

操作输入框:分为两步。第一步:找到这个元素。第二步:使用​​send_keys(value)​​,将数据填充进去。示例代码如下:

'kw') inputTag.send_keys('python')

使用​​clear​​方法可以清除输入框中的内容。示例代码如下:

inputTag.clear()

"rememberMe") rememberTag.click()

from selenium.webdriver.support.ui import Select # 选中这个标签,然后使用Select创建对象 selectTag = Select(driver.find_element_by_name("jumpMenu")) # 根据索引选择 selectTag.select_by_index(1) # 根据值选择 selectTag.select_by_value("# 根据可视的文本选择 selectTag.select_by_visible_text("95秀客户端") # 取消选中所有选项 selectTag.deselect_all()

'su') inputTag.click()

行为链:

inputTag = driver.find_element_by_id('kw')submitTag = driver.find_element_by_id('su')actions = ActionChains(driver)actions.move_to_element(inputTag)actions.send_keys_to_element(inputTag,'python')actions.move_to_element(submitTag)actions.click(submitTag)actions.perform()

还有更多的鼠标相关的操作。

Cookie操作:

获取所有的​​cookie​​:

for cookie in driver.get_cookies(): print(cookie)

根据cookie的key获取value:

value = driver.get_cookie(key)

删除所有的cookie:

driver.delete_all_cookies()

删除某个​​cookie​​:

driver.delete_cookie(key)

页面等待:

现在的网页越来越多采用了 Ajax 技术,这样程序便不能确定何时某个元素完全加载出来了。如果实际页面等待时间过长导致某个dom元素还没出来,但是你的代码直接使用了这个WebElement,那么就会抛出NullPointer的异常。为了解决这个问题。所以 Selenium 提供了两种等待方式:一种是隐式等待、一种是显式等待。

隐式等待:调用​​driver.implicitly_wait​​。那么在获取不可用的元素之前,会先等待10秒中的时间。示例代码如下:

driver = webdriver.Chrome(executable_path=driver_path)driver.implicitly_wait(10)# 请求网页driver.get("selenium import webdriver from selenium.webdriver.common.by import By from selenium.webdriver.support.ui import WebDriverWait from selenium.webdriver.support import expected_conditions as EC driver = webdriver.Firefox() driver.get("try: element = WebDriverWait(driver, 10).until( EC.presence_of_element_located((By.ID, "myDynamicElement")) ) finally: driver.quit()

一些其他的等待条件:

切换页面:

有时候窗口中有很多子tab页面。这时候肯定是需要进行切换的。​​selenium​​​提供了一个叫做​​switch_to_window​​​来进行切换,具体切换到哪个页面,可以从​​driver.window_handles​​中找到。示例代码如下:

# 打开一个新的页面self.driver.execute_script("window.open('"+url+"')")# 切换到这个新的页面中self.driver.switch_to_window(self.driver.window_handles[1])

设置代理ip:

有时候频繁爬取一些网页。服务器发现你是爬虫后会封掉你的ip地址。这时候我们可以更改代理ip。更改代理ip,不同的浏览器有不同的实现方式。这里以​​Chrome​​浏览器为例来讲解:

from selenium import webdriveroptions = webdriver.ChromeOptions()options.add_argument("--proxy-server== r"D:\ProgramApp\chromedriver\chromedriver.exe"driver = webdriver.Chrome(executable_path=driver_path,chrome_options=options)driver.get('selenium.webdriver.remote.webelement import WebElement​​​类是每个获取出来的元素的所属类。有一些常用的属性:

get_attribute:这个标签的某个属性的值。screentshot:获取当前页面的截图。这个方法只能在​​driver​​​上使用。​​​driver​​​的对象类,也是继承自​​WebElement​​​。更多请阅读相关源代码。


版权声明:本文内容由网络用户投稿,版权归原作者所有,本站不拥有其著作权,亦不承担相应法律责任。如果您发现本站中有涉嫌抄袭或描述失实的内容,请联系我们jiasou666@gmail.com 处理,核实后本网站将在24小时内删除侵权内容。

上一篇:Python爬虫 XPath语法和lxml模块(python爬虫怎么学)
下一篇:java 如何给对象中的包装类设置默认值
相关文章

 发表评论

暂时没有评论,来抢沙发吧~