国产探花免费观看_亚洲丰满少妇自慰呻吟_97日韩有码在线_资源在线日韩欧美_一区二区精品毛片,辰东完美世界有声小说,欢乐颂第一季,yy玄幻小说排行榜完本

首頁 > 編程 > JavaScript > 正文

node.js 基于cheerio的爬蟲工具的實現(需要登錄權限的爬蟲工具)

2019-11-19 11:49:14
字體:
來源:轉載
供稿:網友

公司有過一個需求,需要拿一個網頁的的表格數據,數據量達到30w左右;為了提高工作效率。

結合自身經驗和網上資料。寫了一套符合自己需求的nodejs爬蟲工具。也許也會適合你的。

先上代碼。在做講解

'use strict';// 引入模塊const superagent = require('superagent');const cheerio = require('cheerio');const Excel = require('exceljs');var baseUrl = '';var Cookies = 'PHPSESSID=1c948cafb361cb5dce87122846e649cd'; //偽裝的cookielet pageDatas = [];let count = 1;let limit = 3;for (count; count < limit; count++) {   baseUrl = `http://bxjd.henoo.com/policy/policyList?page=${count}`;  loadPage(baseUrl); }function loadPage(baseUrl) {    getPageLoad(baseUrl);} async function getPageLoad(baseUrl) {  try {    let body = await superagent.get(baseUrl)      .set("Cookie", Cookies)    var $ = cheerio.load(body.text);    var trList = $("#tableList").children("tr");        for (var i = 0; i < trList.length; i++) {         let item = {};        var tdArr = trList.eq(i).find("td");        var id = tdArr.eq(0).text();        item.sortId = id;        var detailUrl = `http://bxjd.henoo.com/policy/view?id=${id}`;        item.policyId = tdArr.eq(1).text();        item.policyProductName = tdArr.eq(2).text();        item.policyName = tdArr.eq(3).text();        item.policyMoney = tdArr.eq(4).text();        let detailBody = await superagent.get(detailUrl)          .set("Cookie", Cookies);        var $$ = cheerio.load(detailBody.text);        var detailT = $$(".table-view");             //投保人證件號        item.policyIdNum = detailT.find("tr").eq(11).find("td").eq(1).text();        //投保人手機號        item.policyPhone = detailT.find("tr").eq(10).find("td").eq(1).text();        //被保人手機號        item.bePoliciedPhone = detailT.find("tr").eq(16).find("td").eq(1).text();              //被保人姓名        item.bePoliciedName = detailT.find("tr").eq(13).find("td").eq(1).text();        console.log(item.bePoliciedName)        //被保人證件號        item.bePoliciedIdNum = detailT.find("tr").eq(17).find("td").eq(1).text();        pageDatas = [...pageDatas,item];      }    if (pageDatas.length / 15 == (count - 1)) {       writeXLS(pageDatas)    }  } catch (error) {  }}function writeXLS(pageDatas) {  const workbook = new Excel.Workbook();  const sheet = workbook.addWorksheet('My Sheet');  const reColumns=[    {header:'序號',key:'sortId'},    {header:'投保單號',key:'policyId'},    {header: '產品名稱', key: 'policyProductName'},    {header: '投保人姓名', key: 'policyName' },    {header: '投保人手機號', key: 'policyPhone' },    {header: '投保人證件號', key: 'policyIdNum'},    {header: '被保人姓名', key: 'bePoliciedName' },    {header: '被保人手機號', key: 'bePoliciedPhone' },    {header: '被保人證件號', key: 'bePoliciedIdNum' },    {header:'保費',key:'policyMoney'},  ];  sheet.columns = reColumns;  for(let trData of pageDatas){    sheet.addRow(trData);  }  const filename = './projects.xlsx';  workbook.xlsx.writeFile(filename)  .then(function() {   console.log('ok');  }).catch(function (error) {      console.error(error);   }); }

代碼使用方式

一、npm install 相關的依賴二、代碼修改

1、修改為自己的baseUrl

2、如果不需要攜帶cookie時將set("Cookie", Cookies)代碼去掉

3、修改自己的業務代碼

三、運行 node index四、部分代碼說明

所有代碼不過90行不到,操作了表格數據獲取和單條數據詳情的獲取

接口請求的框架使用superagent的原因是拼接偽裝的cookie的操作比較簡單。因為有的時候我們需要獲取登錄后的頁面數據。

這個時候可能需要請求是攜帶登錄cookie信息。返回后的body對象通過cheerio.load之后就能拿到一個類似jquery的文檔對象。

后面就可以很方便的使用jquery的dom操作方式去拿到頁面內自己想要的數據了。

數據寫入到excel中。

五、結果

總結

發表評論 共有條評論
用戶名: 密碼:
驗證碼: 匿名發表
主站蜘蛛池模板: 平谷区| 林周县| 鹿泉市| 虎林市| 泌阳县| 普兰县| 烟台市| 梧州市| 蒙山县| 社会| 高碑店市| 东光县| 军事| 平潭县| 巴彦淖尔市| 大邑县| 乐清市| 资溪县| 襄汾县| 屏山县| 宝坻区| 平度市| 调兵山市| 富民县| 神池县| 白山市| 白沙| 民和| 庆阳市| 阳曲县| 广南县| 迁西县| 罗定市| 盘锦市| 长沙县| 蛟河市| 潞城市| 北宁市| 贵德县| 自治县| 明水县|