国产探花免费观看_亚洲丰满少妇自慰呻吟_97日韩有码在线_资源在线日韩欧美_一区二区精品毛片,辰东完美世界有声小说,欢乐颂第一季,yy玄幻小说排行榜完本

首頁 > 編程 > JavaScript > 正文

vue實現PC端錄音功能的實例代碼

2019-11-19 11:23:55
字體:
來源:轉載
供稿:網友

錄音功能一般來說在移動端比較常見,但是在pc端也要實現按住說話的功能呢?項目需求:按住說話,時長不超過60秒,生成語音文件并上傳,我這里用的是recorder.js

1.項目中新建一個recorder.js文件,內容如下,也可在百度上直接搜一個

// 兼容window.URL = window.URL || window.webkitURLnavigator.getUserMedia = navigator.getUserMedia || navigator.webkitGetUserMedia || navigator.mozGetUserMedia || navigator.msGetUserMedialet HZRecorder = function (stream, config) { config = config || {} config.sampleBits = config.sampleBits || 8 // 采樣數位 8, 16 config.sampleRate = config.sampleRate || (44100 / 6) // 采樣率(1/6 44100) let context = new (window.webkitAudioContext || window.AudioContext)() let audioInput = context.createMediaStreamSource(stream) let createScript = context.createScriptProcessor || context.createJavaScriptNode let recorder = createScript.apply(context, [4096, 1, 1]) let audioData = {  size: 0, // 錄音文件長度  buffer: [], // 錄音緩存  inputSampleRate: context.sampleRate, // 輸入采樣率  inputSampleBits: 16, // 輸入采樣數位 8, 16  outputSampleRate: config.sampleRate, // 輸出采樣率  oututSampleBits: config.sampleBits, // 輸出采樣數位 8, 16  input: function (data) {   this.buffer.push(new Float32Array(data))   this.size += data.length  },  compress: function () { // 合并壓縮   // 合并   let data = new Float32Array(this.size)   let offset = 0   for (let i = 0; i < this.buffer.length; i++) {    data.set(this.buffer[i], offset)    offset += this.buffer[i].length   }   // 壓縮   let compression = parseInt(this.inputSampleRate / this.outputSampleRate)   let length = data.length / compression   let result = new Float32Array(length)   let index = 0; let j = 0   while (index < length) {    result[index] = data[j]    j += compression    index++   }   return result  },  encodeWAV: function () {   let sampleRate = Math.min(this.inputSampleRate, this.outputSampleRate)   let sampleBits = Math.min(this.inputSampleBits, this.oututSampleBits)   let bytes = this.compress()   let dataLength = bytes.length * (sampleBits / 8)   let buffer = new ArrayBuffer(44 + dataLength)   let data = new DataView(buffer)   let channelCount = 1// 單聲道   let offset = 0   let writeString = function (str) {    for (let i = 0; i < str.length; i++) {     data.setUint8(offset + i, str.charCodeAt(i))    }   }   // 資源交換文件標識符   writeString('RIFF'); offset += 4   // 下個地址開始到文件尾總字節數,即文件大小-8   data.setUint32(offset, 36 + dataLength, true); offset += 4   // WAV文件標志   writeString('WAVE'); offset += 4   // 波形格式標志   writeString('fmt '); offset += 4   // 過濾字節,一般為 0x10 = 16   data.setUint32(offset, 16, true); offset += 4   // 格式類別 (PCM形式采樣數據)   data.setUint16(offset, 1, true); offset += 2   // 通道數   data.setUint16(offset, channelCount, true); offset += 2   // 采樣率,每秒樣本數,表示每個通道的播放速度   data.setUint32(offset, sampleRate, true); offset += 4   // 波形數據傳輸率 (每秒平均字節數) 單聲道×每秒數據位數×每樣本數據位/8   data.setUint32(offset, channelCount * sampleRate * (sampleBits / 8), true); offset += 4   // 快數據調整數 采樣一次占用字節數 單聲道×每樣本的數據位數/8   data.setUint16(offset, channelCount * (sampleBits / 8), true); offset += 2   // 每樣本數據位數   data.setUint16(offset, sampleBits, true); offset += 2   // 數據標識符   writeString('data'); offset += 4   // 采樣數據總數,即數據總大小-44   data.setUint32(offset, dataLength, true); offset += 4   // 寫入采樣數據   if (sampleBits === 8) {    for (let i = 0; i < bytes.length; i++ , offset++) {     let s = Math.max(-1, Math.min(1, bytes[i]))     let val = s < 0 ? s * 0x8000 : s * 0x7FFF     val = parseInt(255 / (65535 / (val + 32768)))     data.setInt8(offset, val, true)    }   } else {    for (let i = 0; i < bytes.length; i++ , offset += 2) {     let s = Math.max(-1, Math.min(1, bytes[i]))     data.setInt16(offset, s < 0 ? s * 0x8000 : s * 0x7FFF, true)    }   }   return new Blob([data], { type: 'audio/mp3' })  } } // 開始錄音 this.start = function () {  audioInput.connect(recorder)  recorder.connect(context.destination) } // 停止 this.stop = function () {  recorder.disconnect() } // 獲取音頻文件 this.getBlob = function () {  this.stop()  return audioData.encodeWAV() } // 回放 this.play = function (audio) {  let downRec = document.getElementById('downloadRec')  downRec.href = window.URL.createObjectURL(this.getBlob())  downRec.download = new Date().toLocaleString() + '.mp3'  audio.src = window.URL.createObjectURL(this.getBlob()) } // 上傳 this.upload = function (url, callback) {  let fd = new FormData()  fd.append('audioData', this.getBlob())  let xhr = new XMLHttpRequest()  /* eslint-disable */  if (callback) {   xhr.upload.addEventListener('progress', function (e) {    callback('uploading', e)   }, false)   xhr.addEventListener('load', function (e) {    callback('ok', e)   }, false)   xhr.addEventListener('error', function (e) {    callback('error', e)   }, false)   xhr.addEventListener('abort', function (e) {    callback('cancel', e)   }, false)  }  /* eslint-disable */  xhr.open('POST', url)  xhr.send(fd) } // 音頻采集 recorder.onaudioprocess = function (e) {  audioData.input(e.inputBuffer.getChannelData(0))  // record(e.inputBuffer.getChannelData(0)); }}// 拋出異常HZRecorder.throwError = function (message) { alert(message) throw new function () { this.toString = function () { return message } }()}// 是否支持錄音HZRecorder.canRecording = (navigator.getUserMedia != null)// 獲取錄音機HZRecorder.get = function (callback, config) { if (callback) {  if (navigator.getUserMedia) {   navigator.getUserMedia(    { audio: true } // 只啟用音頻    , function (stream) {     let rec = new HZRecorder(stream, config)     callback(rec)    }    , function (error) {     switch (error.code || error.name) {      case 'PERMISSION_DENIED':      case 'PermissionDeniedError':       HZRecorder.throwError('用戶拒絕提供信息。')       break      case 'NOT_SUPPORTED_ERROR':      case 'NotSupportedError':       HZRecorder.throwError('瀏覽器不支持硬件設備。')       break      case 'MANDATORY_UNSATISFIED_ERROR':      case 'MandatoryUnsatisfiedError':       HZRecorder.throwError('無法發現指定的硬件設備。')       break      default:       HZRecorder.throwError('無法打開麥克風。異常信息:' + (error.code || error.name))       break     }    })  } else {   HZRecorder.throwErr('當前瀏覽器不支持錄音功能。'); return  } }}export default HZRecorder

2.頁面中使用,具體如下

<template> <div class="wrap">  <el-form v-model="form">   <el-form-item>    <input type="button" class="btn-record-voice" @mousedown.prevent="mouseStart" @mouseup.prevent="mouseEnd" v-model="form.time"/>    <audio v-if="form.audioUrl" :src="form.audioUrl" controls="controls" class="content-audio" style="display: block;">語音</audio>   </el-form-item>  <el-form> </div></template><script>// 引入recorder.jsimport recording from '@/js/recorder/recorder.js'export default { data() {  return {   form: {    time: '按住說話(60秒)',    audioUrl: ''   },   num: 60, // 按住說話時間   recorder: null,   interval: '',   audioFileList: [], // 上傳語音列表   startTime: '', // 語音開始時間   endTime: '', // 語音結束  } }, methods: {  // 清除定時器  clearTimer () {   if (this.interval) {    this.num = 60    clearInterval(this.interval)   }  },  // 長按說話  mouseStart () {   this.clearTimer()   this.startTime = new Date().getTime()   recording.get((rec) => {    // 當首次按下時,要獲取瀏覽器的麥克風權限,所以這時要做一個判斷處理    if (rec) {     // 首次按下,只調用一次     if (this.flag) {      this.mouseEnd()      this.flag = false     } else {      this.recorder = rec      this.interval = setInterval(() => {       if (this.num <= 0) {        this.recorder.stop()        this.num = 60        this.clearTimer()       } else {        this.num--        this.time = '松開結束(' + this.num + '秒)'        this.recorder.start()       }      }, 1000)     }    }   })  },  // 松開時上傳語音  mouseEnd () {   this.clearTimer()   this.endTime = new Date().getTime()   if (this.recorder) {    this.recorder.stop()    // 重置說話時間    this.num = 60    this.time = '按住說話(' + this.num + '秒)'    // 獲取語音二進制文件    let bold = this.recorder.getBlob()    // 將獲取的二進制對象轉為二進制文件流    let files = new File([bold], 'test.mp3', {type: 'audio/mp3', lastModified: Date.now()})    let fd = new FormData()    fd.append('file', files)    fd.append('tenantId', 3) // 額外參數,可根據選擇填寫    // 這里是通過上傳語音文件的接口,獲取接口返回的路徑作為語音路徑    this.uploadFile(fd)   }  } }}</script><style scoped></style>

3.除了上述代碼中的注釋外,還有一些地方需要注意

  • 上傳語音時,一般會有兩個參數,一個是語音的路徑,一個是語音的時長,路徑直接就是 this.form.audioUrl ,不過時長這里需要注意的是,由于我們一開始設置了定時器是有一秒的延遲,所以,要在獲取到的時長基礎上在減去一秒
  • 初次按住說話一定要做判斷,不然就會報錯啦
  • 第三點也是很重要的一點,因為我是在本地項目中測試的,可以實現錄音功能,但是打包到測試環境后,就無法訪問麥克風,經過多方嘗試后,發現是由于我們測試環境的地址是http://***,而在谷歌瀏覽器中有這樣一種安全策略,只允許在localhost下及https下才可以訪問 ,因此換一下就完美的解決了這個問題了
  • 在使用過程中,針對不同的瀏覽器可能會有些兼容性的問題,如果遇到了還需自己單獨處理下

總結

以上所述是小編給大家介紹的vue實現PC端錄音功能的實例代碼,希望對大家有所幫助,如果大家有任何疑問請給我留言,小編會及時回復大家的。在此也非常感謝大家對武林網網站的支持!
如果你覺得本文對你有幫助,歡迎轉載,煩請注明出處,謝謝!

發表評論 共有條評論
用戶名: 密碼:
驗證碼: 匿名發表
主站蜘蛛池模板: 若尔盖县| 陈巴尔虎旗| 交口县| 永胜县| 阜新市| 迁西县| 咸阳市| 伊川县| 长海县| 万载县| 永丰县| 阳新县| 东兰县| 哈尔滨市| 南郑县| 阳春市| 任丘市| 新绛县| 延庆县| 滦南县| 恭城| 沾益县| 含山县| 固镇县| 陆河县| 九寨沟县| 安阳市| 乌恰县| 肃宁县| 内丘县| 霍林郭勒市| 百色市| 缙云县| 东台市| 贵定县| 台湾省| 邛崃市| 资溪县| 确山县| 普洱| 宽城|