使用selenium抓取淘宝的商品信息实例

网友投稿 452 2023-02-19


使用selenium抓取淘宝的商品信息实例

淘宝的页面大量使用了js加载数据,所以采用selenium来进行爬取更为简单,selenum作为一个测试工具,主要配合无窗口浏览器phantomjs来使用。

import re

from selenium import webdriver

from selenium.common.exceptions import TimeoutException

from selenium.webdriver.common.by import By

from selenium.webdriver.support.ui import WebDriverWait

from selenium.webdriver.support import expected_conditions as EC

from pyquery import PyQuery as pq

'''

wait.until()语句是selenum里面的显示等待,wait是一个WebDriverWait对象,它设置了等待时间,如果页面在等待时间内

没有在 DOM中找到元素,将继续等待,超出设定时间后则抛出找不到元素的异常,也可以说程序每隔xx秒看一眼,如果条件

成立了,则执行下一步,否则继续等待,直到超过设置的最长时间,然后抛出TimeoutException

1.presence_of_element_located 元素加载出,传入定位元组,如(By.ID, 'p')

2.element_to_be_clickable 元素可点击

3.text_to_be_present_in_element 某个元素文本包含某文字

'''

# 定义一个无界面的浏览器

browser = webdriver.PhantomJS(

service_args=[

'--load-images=false',

'--disk-cache=true'])

# 10s无响应就down掉

wait = WebDriverWait(browser, 10)

#虽然无界面但是必须要定义窗口

browser.set_window_size(1400, 900)

def search():

'''

此函数的作用为完成首页点击搜索的功能,替换标签可用于其他网页使用

:return:

'''

print('正在搜索')

try:

#访问页面

browser.get('https://taobao.com')

# 选择到淘宝首页的输入框

input = wait.until(

EC.presence_of_element_located((By.css_SELECTOR, '#q'))

)

#搜索的那个按钮

submit = wait.until(EC.element_to_be_clickable(

(By.CSS_SELECTOR, '#J_TSearchForm > div.search-button > button')))

#send_key作为写到input的内容

input.send_keys('面条')

#执行点击搜索的操作

submit.click()

#查看到当前的页码一共是多少页

total = wait.until(EC.presence_of_element_located(

(By.CSS_SELECTOR, '#mainsrp-pager > div > div > div > div.total')))

#获取所有的商品

get_products()

#返回总页数

return total.text

except TimeoutException:

return search()

def next_page(page_number):

'''

翻页函数,

:param page_number:

:return:

'''

print('正在翻页', page_number)

try:

#这个是我们跳转页的输入框

input = wait.until(EC.presence_of_element_located(

(By.CSS_SELECTOR, '#mainsrp-pager > div > div > div > div.form > input')))

#跳转时的确定按钮

submit = wait.until(

EC.element_to_be_clickable(

(By.CSS_SELECTOR,

'#mainsrp-pager > div > div > div > div.form > spJSIUfclCan.J_Submit')))

#清除里面的数字

input.clear()

#重新输入数字

input.send_keys(page_number)

#选择并点击

submit.click()

#判断当前页是不是我们要现实的页

wait.until(

EC.text_to_be_present_in_element(

(By.CSS_SELECTOR,

'#mainsrp-pager > div > div > div > ul > li.item.active > spanJSIUfclC'),

str(page_number)))

#调用函数获取商品信息

get_products()

#捕捉超时,重新进入翻页的函数

except TimeoutException:

next_page(page_number)

def get_products():

'''

搜到页面信息在此函数在爬取我们需要的信息

:return:

'''

#每一个商品标签,这里是加载出来以后才会拿网页源代码

wait.until(EC.presenceJSIUfclC_of_element_located(

(By.CSS_SELECTOR, '#mainsrp-itemlist .items .item')))

#这里拿到的是整个网页源代码

html = browser.page_source

#pq解析网页源代码

doc = pq(html)

items = doc('#mainsrp-itemlist .items .item').items()

for item in items:

# print(item)

product = {

'image': item.find('.pic .img').attr('src'),

'price': item.find('.price').text(),

'deal': item.find('.deal-cnt').text()[:-3],

'title': item.find('.title').text(),

'shop': item.find('.shop').text(),

'location': item.find('.location').text()

}

print(product)

def main():

try:

#第一步搜索

total = search()

#int类型刚才找到的总页数标签,作为跳出循环的条件

total = int(re.compile('(\d+)').search(total).group(1))

#只要后面还有就继续爬,继续翻页

for i in range(2, total + 1):

next_page(i)

except Exception:

print('出错啦')

finally:

#关闭浏览器

browser.close()

if __name__ == '__main__':

main()


版权声明:本文内容由网络用户投稿,版权归原作者所有,本站不拥有其著作权,亦不承担相应法律责任。如果您发现本站中有涉嫌抄袭或描述失实的内容,请联系我们jiasou666@gmail.com 处理,核实后本网站将在24小时内删除侵权内容。

上一篇:Java递归实现字符串全排列与全组合
下一篇:API接口管理平台系统(api服务管理平台)
相关文章

 发表评论

暂时没有评论,来抢沙发吧~