乌贼无法使用伪造的无头浏览器来缓存HTTPS请求

时间:2019-09-17 14:56:26

标签: node.js proxy puppeteer squid headless-browser

我已经部署了鱿鱼代理服务器,并且能够使用curl命令缓存http和https请求

curl --proxy http://<ip>:3128 --insecure --cacert squid-ca-cert.pem https://stackoverflow.com/questions/ask

但是,当我尝试使用puppeteer作为无头浏览器通过鱿鱼服务器发送请求时,我无法缓存HTTPS站点,但是可以缓存HTTP站点。请找到Node JS脚本

const puppeteer = require('puppeteer');

(async () => {
  const browser = await puppeteer.launch({
    args: [ '--proxy-server=<IP>:3128', 
      '--cacert squid-ca-cert.pem'],
      headless: false,ignoreHTTPSErrors: true
  });
  const page = await browser.newPage();
  await page.goto('https://www.classcentral.com/course/matlab-3396');
  await page.screenshot({path: 'example.png',fullPage: true});

  await browser.close();
})();

0 个答案:

没有答案