脚本之家,脚本语言编程技术及教程分享平台!
分类导航

Python|VBS|Ruby|Lua|perl|VBA|Golang|PowerShell|Erlang|autoit|Dos|bat|

服务器之家 - 脚本之家 - Python - python爬虫之pyppeteer库简单使用

python爬虫之pyppeteer库简单使用

2021-12-11 11:24努力生活的黄先生 Python

Puppeteer 是 Google 基于 Node.js 开发的一个工具,有了它我们可以通过 JavaScript 来控制 Chrome 浏览器的一些操作,当然也可以用作网络爬虫上,其 API 极其完善,功能非常强大

pyppeteer

介绍Pyppeteer之前先说一下Puppeteer,Puppeteer是谷歌出品的一款基于Node.js开发的一款工具,主要是用来操纵Chrome浏览器的 API,通过Javascript代码来操纵Chrome浏览器,完成数据爬取、Web程序自动测试等任务。

pyppeteer 是非官方 Python 版本的 Puppeteer 库,浏览器自动化库,由日本工程师开发。

Puppeteer 是 Google 基于 Node.js 开发的工具,调用 Chrome 的 API,通过 JavaScript 代码来操纵 Chrome 完成一些操作,用于网络爬虫、Web 程序自动测试等。

pyppeteer 使用了 Python 异步协程库asyncio,可整合 Scrapy 进行分布式爬虫。

puppet 木偶,puppeteer 操纵木偶的人。

pyppeteer和puppeteer的不同点

pyppeteer支持字典和关键字传参,puppeteer只支持字典传参

?
1
2
3
4
5
6
# puppeteer支支持字典传参
browser = await launch({'headless':True})
 
# pyppeteer支持字典和关键字传参
browser = await launch({'headless':True})
browser = await launch(headless=True)

元素选择器方法名$变为querySelector

?
1
2
# puppeteer使用$符
page.$()/page.%%()/page.$x()
?
1
2
3
4
5
# pyppeteer使用python风格的函数名
page.querySelector()/page.querySelectorAll()/page.xpath()
 
# 简写方式
page.J()/page.JJ()/page.Jx()

page.evluate()和page.querySelectorEval()的参数

puppeteer的evaluate()方法使用JavaScript原生函数或JavaScript表达式字符串。pyppeteer的evaluate()方法只使用JavaScript字符串,该字符串可以是函数也可以是表达式,pyppeteer会进行自动判断。但有时会判断错误,如果字符串被判断成了函数,并且报错,可以添加参数force_expr=True,强制pyppeteer作为表达式处理。

获取网页内容:

?
1
content = await page.evaluate('document.body.textContent',force_expr=True)

获取元素的内部文字:

?
1
2
element = await page.querySelector('h1')
title = await page.evaluate('(element) => element.textContent',element)

安装

1、安装pyppeteer

?
1
pip install pyppeteer

2、安装chromium

?
1
pyppeteer-install

简单使用

  1. import asyncio 
  2. from pyppeteer import launch 
  3.  
  4. async def main(): 
  5.     url = 'https://www.toutiao.com/' 
  6.     # headless参数设置为Falase,则变成有头模式 
  7.     browser = await launch(headless=False, ignoreDefaultArgs=['--enable-automation']) 
  8.     page = await browser.newPage() 
  9.      
  10.     # 设置页面视图大小 
  11.     await page.setViewport(viewport={'width':1600,'herght':900}) 
  12.      
  13.     # 是否启用JS,enabled设为False,则无渲染效果 
  14.     await page.setJavaScriptEnable(enabled=True) 
  15.      
  16.     # 等待时间1000毫秒 
  17.     res = await page.goto(url,options={'timeout':1000}) 
  18.     resp_headers = res.headers  # 响应头 
  19.     resp_status = res.status    # 响应状态 
  20.      
  21.     # 等待 
  22.     await asyncio.sleep(2) 
  23.     await page.waitFor(1000) 
  24.     # 第二种方法 ,在while循环里强行查询某元素进行等待 
  25.     while not await page.querySelector('.t'
  26.      
  27.     # 滚动到页面底部 
  28.     await page.evaluate('window.scrollBy(0,document.body.scrollHeight)'
  29.      
  30.     await page.screenshot({'path':'test.png'}) 
  31.      
  32.     # 打印网页cookies 
  33.     print(await page.cookies()) 
  34.      
  35.     # 获取所有html内容 
  36.     print(await page.content()) 
  37.      
  38.      
  39.     dimensions = await page.evaluate(pageFunction='''() => { 
  40.             return { 
  41.                 width:document.documentElement.clentWidth,    // 页面宽度 
  42.                 height:document.documentElement.clentHeight,  // 页面高度 
  43.                 deviceScaleFactor: window.devicePixelRatio,  // 像素比1.0000000149011612 
  44.                 } 
  45.             }''',force_expr=False)   # force_expr=False  执行的是函数 
  46.     print(dimensions) 
  47.      
  48.     content = await page.evaluate(pageFunction='document.body.textContent',force_expr=True)    # 只获得文本 执行js脚本,force_expr=True  执行的是表达式 
  49.     print(content) 
  50.      
  51.     # 打印当前页面的标题 
  52.     print(await page.title()) 
  53.      
  54.      
  55.     # 抓取新闻内容  可以使用xpath表达式 
  56.     ''
  57.     pyppeteer 三种解析方式 
  58.     page.querySelector() 
  59.     page.querySelectorAll() 
  60.     page.xpath() 
  61.     简写方式为: 
  62.     page.J() 
  63.     page.JJ() 
  64.     page.Jx() 
  65.     ''
  66.     element = await page.querySelector(".feed-infinite-wrapper > ul>li"
  67.     print(element) 
  68.      
  69.      
  70.     element = await page.querySelectorAll(".title-box a"
  71.     for item in element: 
  72.         print(await item.getProperty('textContent')) 
  73.         # 获取文本内容 
  74.         title_str = await (await item.getProperty('textContent')).jsonValue() 
  75.          
  76.         title_link = await (await item.getProperty('textContent')).jsonValue() 
  77.          
  78.         # 获取属性值 
  79.         # title = await (await item.getProperty('class')).jsonValue() 
  80.         print(title_str,title_link) 
  81.     await browser.close() 
  82.  
  83.  
  84. asyncio.get_event_loop().run_until_complete(main()) 

模拟文本输入和点击

?
1
2
3
4
5
6
# 模拟输入账号密码 参数{'delay':reand_int()}  延迟输入时间
await page.type('#kw',"百度",delay=100)
await page.type('#TPL_username_1',"asdasd")
 
await page.waitFor(1000)
await page.click('#su')

移除Chrome正受到自动测试软件的控制

?
1
2
browser = await launch(headless=False, ignoreDefaultArgs=['--enable-automation'])
# 添加ignoreDefaultArgs=['--enable-automation'] 参数

爬取京东商城

?
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
32
33
34
35
36
37
38
39
40
41
42
43
44
45
46
47
48
49
50
51
52
53
54
55
56
57
58
59
60
61
62
63
64
65
66
67
68
from bs4 import BeautifulSoup
from pyppeteer import launch
import asyncio
 
 
def screen_size():
    return 1600,900
 
 
async def main(url):
    browser = await launch({"args":['--no-sandbox'],}) # "headless":False
    page = await browser.newPage()
    width, height = screen_size()
    await page.setViewport(viewport={'width':width,'height':height})
    await page.setJavaScriptEnabled(enabled=True)
    await page.setUserAgent('Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/91.0.4472.77 Safari/537.36')
    await page.goto(url)
 
    await page.evaluate('window.scrollBy(0, document.body.scrollHeight)')
 
    await asyncio.sleep(1)
 
    # content = await page.content()
    li_list = await page.xpath('//*[@id="J_goodsList"]/ul/li')
 
    item_list = []
    for li in li_list:
        a = await li.xpath('.//div[@class="p-img"]/a')
        detail_url = await (await a[0].getProperty('href')).jsonValue()
        promo_words = await (await a[0].getProperty('title')).jsonValue()
        a_ = await li.xpath('.//div[@class="p-commit"]/strong/a')
        p_commit = await (await a_[0].getProperty('textContent')).jsonValue()
        i = await li.xpath('./div/div[3]/strong/i')
        price = await (await i[0].getProperty('textContent')).jsonValue()
        em = await li.xpath('./div/div[4]/a/em')
        title = await (await em[0].getProperty('textContent')).jsonValue()
        item = {
            "title" : title,
            "detail_url" : detail_url,
            "promp_words" : promo_words,
            "p_commit" : p_commit,
            "price" : price
        }
        item_list.append(item)
 
    await page_close(browser)
    return item_list
 
 
async def page_close(browser):
    for _page in await browser.pages():
        await _page.close()
    await browser.close()
 
 
url = 'https://search.jd.com/Search?keyword=%E6%89%8B%E6%9C%BA&wq='
        '%E6%89%8B%E6%9C%BA&pvid=e07184578b8442c58ddd65b221020e99&page={}&s=56&click=0 '
task_list = []
for i in range(1,4):
    page = i * 2 - 1
    task_list.append(main(url.format(page)))
 
results = asyncio.get_event_loop().run_until_complete(asyncio.gather(*task_list))
 
for i in results:
    print(i,len(i))
 
print('*'*100)

python爬虫之pyppeteer库简单使用

到此这篇关于python爬虫之pyppeteer库的文章就介绍到这了,更多相关python爬虫pyppeteer库内容请搜索服务器之家以前的文章或继续浏览下面的相关文章希望大家以后多多支持服务器之家!

原文链接:https://blog.csdn.net/Java_KW/article/details/117849590

延伸 · 阅读

精彩推荐