国产探花免费观看_亚洲丰满少妇自慰呻吟_97日韩有码在线_资源在线日韩欧美_一区二区精品毛片,辰东完美世界有声小说,欢乐颂第一季,yy玄幻小说排行榜完本

首頁 > 編程 > JavaScript > 正文

NodeJS讀取分析Nginx錯誤日志的方法

2019-11-19 11:34:33
字體:
來源:轉載
供稿:網友

網上很少看到有用NodeJS運維系列文章,后續我會更新一些NodeJS運維相關的內容又或者說讓我們更加的深入了解一些服務器的知識以及自動化運維方面的基礎知識 為什么要做錯誤日志分析,因為網上這方面的工具不多我找到一個goaccess但是都是分析成功日志以及用戶訪問趨勢,找了半天沒找著自己想要的索性就自己利用Node造一個

錯誤日志分析

首先我們要讀取Nginx日志,我們可以看到Nginx的錯誤日志格式一般都是這樣子,需要注意的是Nginx的錯誤日志格式是差不多的因為無法設置日志格式只能設置日志錯誤等級所以我們分析的時候很方便

 這里我們用到readline

逐行讀取,簡單來說可以做

  • 文件逐行讀取:比如說進行日志分析。
  • 自動完成:比如輸入npm,自動提示"help init install"。
  • 命令行工具:比如npm init這種問答式的腳手架工具。 這里我們主要做日志分析其他的感興趣可以琢磨一下

實現方法

const readline = require('readline');const fs = require('fs');const path = require('path');console.time('readline-time')const rl = readline.createInterface({ input: fs.createReadStream(path.join(__dirname, '../public/api.err.log'), {  start: 0,  end: Infinity }),});let count = 0; rl.on('line', (line) => { const arr = line.split(', '); const time = arr[0].split('*')[0].split('[')[0].replace(////g, '-');//獲取到時間 const error = arr[0].split('*')[1].split(//d/s/)[1];//錯誤原因 const client = arr[1].split(' ')[1];//請求的客戶端 const server = arr[2].split(' ')[1];//請求的網址 const url = arr[3].match(//s//(/S*)/s/)[0].trim()//獲取請求鏈接 const upstream = arr[4].match(/(?<=").*?(?=")/g)[0];//獲取上游 const host = arr[5].match(/(?<=").*?(?=")/g)[0];//獲取host const referrer = arr[6] ? arr[6].match(/(?<=").*?(?=")/g)[0] : '';//來源 console.log(`時間:${time}-原因:${error}-客戶端:${client}-網址:${server}-地址:${url}-上游:${upstream}-主機:${host}-來源:${referrer}`);  count++;});rl.on('close', () => { let size = fs.statSync(path.join(__dirname, '../public/api.err.log')).size; console.log(`讀取完畢:${count};文件位置:${size % 2 === 0}`); console.timeEnd('readline-time')});

上面代碼有幾點需要注意的是會創建一個文件可讀流然后由于演示所以我是直接找的本地地址如果是生產環境的話大家可以直接填寫服務器上的錯誤日志地址,如果沒有Nginx錯誤日志分割的話每天會產生很多日志,createReadStream讀取幾十M的文件還好如果讀取幾百M或者上G的容量日志這會造成性能問題,所以我們需要在每次createReadStream沒必要每次從0字節開始讀取,ceateReadStream提供了start和end

 

所以我們每次可以在讀取完之后記錄一下當前文件字節大小下一次讀取文件就是可以用該文件上次的大小開始讀取

let size = fs.statSync(path.join(__dirname, '../public/api.err.log')).size;

我們可以對比一下每次從0字節開始讀取和從指定字節讀取

保存數據進行分析

這里我是用node-schedule這個庫進行定時保存錯誤日志和linux的cron差不多,用的mongodb保存數據,這里更推薦大家用elasticsearch來做日志分析

rl.on('close', async () => {     let count = 0;     for (let i of rlist) {      count++;      if (count % 500 === 0) {       const res = await global.db.collection('logs').bulkWrite(rlist.slice(count, count + 500), { ordered: false, w: 1 }).catch(err => { console.error(`批量插入出錯${err}`) });       } else if (count === rlist.length - 1) {      //批量插入 數據       const res = await global.db.collection('logs').bulkWrite(rlist.slice(rlist - (rlist % 500), rlist.length), { ordered: false, w: 1 });       let size = fs.statSync(addres).size;       size = size % 2 === 0 ? size : size + 1;//保證字節大小是偶數 不然會出現讀取上行內容不完整的情況       count = 0;       rlist.length = [];       //更新數據庫里面文件的size       global.db.collection('tasks').updateOne({ _id: addre }, { $set: { _id: addre, size, date: +new Date() } }, { upsert: true });       }     }     resolve(true);    })

上面主要是500條保存一次,因為我用的是批量插入然后mongodb有限制一次性最多插入16M數據的限制,所以大家看自己清空決定一次性插入多少條 猶豫對readline的實現比較感興趣,就去翻閱了一下源碼發現并不是我們想的那么復雜, readline源碼 ,下面貼一下line事件的源碼,想繼續深入的同學可以看看全部的源碼

if (typeof s === 'string' && s) {     var lines = s.split(//r/n|/n|/r/);     for (var i = 0, len = lines.length; i < len; i++) {      if (i > 0) {       this._line();      }      this._insertString(lines[i]);     }    }...Interface.prototype._line = function() { const line = this._addHistory(); this.clearLine(); this._onLine(line);};...Interface.prototype._onLine = function(line) { if (this._questionCallback) {  var cb = this._questionCallback;  this._questionCallback = null;  this.setPrompt(this._oldPrompt);  cb(line); } else {  this.emit('line', line); }};

保存的數據需要進行分析比如哪個IP訪問最多哪條錯誤最多可以用聚合來進行分析貼出示例分析某個IP在某一天訪問出錯最多的原因

db.logs.aggregate( // Pipeline [ // Stage 1 {  $group: {   '_id': { 'client': '114.112.163.28', 'server': '$server', 'error': '$error', 'url': '$url', 'upstream': '$upstream','date':'$date' ,'msg':'$msg' } ,        'date':{'$addToSet':'$date'},   count: { '$sum': 1 }   } }, // Stage 2 {  $match: {      count: { $gte: 1 },     date: ['2019-05-10']      } }, {  $sort: {    count: -1  } }, ], // Options { cursor: {  batchSize: 50 }, allowDiskUse: true });

總結

以上所述是小編給大家介紹的NodeJS讀取分析Nginx錯誤日志的方法,希望對大家有所幫助,如果大家有任何疑問歡迎給我留言,小編會及時回復大家的!

發表評論 共有條評論
用戶名: 密碼:
驗證碼: 匿名發表
主站蜘蛛池模板: 郁南县| 鸡泽县| 遵义县| 陇南市| 上蔡县| 昌邑市| 安溪县| 丹江口市| 丰原市| 肥城市| 察隅县| 偏关县| 扎赉特旗| 永和县| 临洮县| 济宁市| 苍溪县| 卢氏县| 金昌市| 开平市| 宜黄县| 洪雅县| 凤阳县| 澄江县| 克什克腾旗| 杭州市| 永宁县| 积石山| 安庆市| 阳春市| 布拖县| 中西区| 高青县| 灵石县| 永德县| 罗平县| 眉山市| 封开县| 波密县| 洛隆县| 新源县|