国产探花免费观看_亚洲丰满少妇自慰呻吟_97日韩有码在线_资源在线日韩欧美_一区二区精品毛片,辰东完美世界有声小说,欢乐颂第一季,yy玄幻小说排行榜完本

首頁 > 編程 > JavaScript > 正文

Web技術(shù)實(shí)現(xiàn)移動(dòng)監(jiān)測的介紹

2019-11-19 15:24:25
字體:
供稿:網(wǎng)友

Web技術(shù)實(shí)現(xiàn)移動(dòng)監(jiān)測的介紹

由上述引用語句可得出“移動(dòng)監(jiān)測”需要以下要素:

一個(gè)擁有攝像頭的計(jì)算機(jī)用于判斷移動(dòng)的算法移動(dòng)后的處理

注:本文涉及的所有案例均基于 PC/Mac 較新版本的 Chrome / Firefox 瀏覽器,部分案例需配合攝像頭完成,所有截圖均保存在本地。

對方不想和你說話,并向你扔來一個(gè)鏈接:

體驗(yàn)鏈接>>

綜合案例
綜合案例

該案例有以下兩個(gè)功能:

拍好 POST 后的 1 秒會(huì)進(jìn)行拍照靜止 1 秒后音樂會(huì)停止,產(chǎn)生移動(dòng)會(huì)恢復(fù)播放狀態(tài)

上述案例也許并不能直接體現(xiàn)出『移動(dòng)監(jiān)測』的實(shí)際效果和原理,下面再看看這個(gè)案例。

體驗(yàn)鏈接>>

像素差異
像素差異

案例的左側(cè)是視頻源,而右側(cè)則是移動(dòng)后的像素處理(像素化、判斷移動(dòng)和只保留綠色等)。

因?yàn)槭腔?Web 技術(shù),所以視頻源采用 WebRTC,像素處理則采用 Canvas。

視頻源

不依賴 Flash 或 Silverlight,我們使用 WebRTC (Web Real-Time Communications) 中的 navigator.getUserMedia() API,該 API 允許 Web 應(yīng)用獲取用戶的攝像頭與麥克風(fēng)流(stream)。

示例代碼如下:

<!-- 若不加 autoplay,則會(huì)停留在第一幀 --><video id="video" autoplay></video>// 具體參數(shù)含義可看相關(guān)文檔。const constraints = { audio: false, video: { width: 640, height: 480 }}navigator.mediaDevices.getUserMedia(constraints) .then(stream => { // 將視頻源展示在 video 中 video.srcObject = stream }) .catch(err => { console.log(err) })

對于兼容性問題,Safari 11 開始支持 WebRTC 了。具體可查看 caniuse

像素處理

在得到視頻源后,我們就有了判斷物體是否移動(dòng)的素材。當(dāng)然,這里并沒有采用什么高深的識(shí)別算法,只是利用連續(xù)兩幀截圖的像素差異來判斷物體是否發(fā)生移動(dòng)(嚴(yán)格來說,是畫面的變化)。

截圖

獲取視頻源截圖的示例代碼:

const video = document.getElementById('video')const canvas = document.createElement('canvas')const ctx = canvas.getContext('2d')canvas.width = 640canvas.height = 480// 獲取視頻中的一幀function capture () { ctx.drawImage(video, 0, 0, canvas.width, canvas.height) // ...其它操作}

得出截圖間的差異

對于兩張圖的像素差異,在 凹凸實(shí)驗(yàn)室《“等一下,我碰!”――常見的2D碰撞檢測》 這篇博文中所提及的“像素檢測”碰撞算法是解決辦法之一。該算法是通過遍歷兩個(gè)離屏畫布(offscreen canvas)同一位置的像素點(diǎn)的透明度是否同時(shí)大于 0,來判斷碰撞與否。當(dāng)然,這里要改為『同一位置的像素點(diǎn)是否不同(或差異小于某閾值)』來判斷移動(dòng)與否。

但上述方式稍顯麻煩和低效,這里我們采用 ctx.globalCompositeOperation = 'difference' 指定畫布新增元素(即第二張截圖與第一張截圖)的合成方式,得出兩張截圖的差異部分。

體驗(yàn)鏈接>>

示例代碼:

function diffTwoImage () { // 設(shè)置新增元素的合成方式 ctx.globalCompositeOperation = 'difference'  // 清除畫布 ctx.clearRect(0, 0, canvas.width, canvas.height)  // 假設(shè)兩張圖像尺寸相等 ctx.drawImage(firstImg, 0, 0) ctx.drawImage(secondImg, 0, 0)}

兩張圖像的差異
兩張圖的差異

體驗(yàn)上述案例后,是否有種當(dāng)年玩“QQ游戲《大家來找茬》”的感覺。另外,這個(gè)案例可能還適用于以下兩種情況:

  1. 當(dāng)你不知道設(shè)計(jì)師前后兩次給你的設(shè)計(jì)稿有何差異時(shí)
  2. 想查看兩個(gè)瀏覽器對同一個(gè)網(wǎng)頁的渲染有何差異時(shí)何時(shí)為一個(gè)“動(dòng)作”

由上述“兩張圖像差異”的案例中可得:黑色代表該位置上的像素未發(fā)生改變,而像素越明亮則代表該點(diǎn)的“動(dòng)作”越大。因此,當(dāng)連續(xù)兩幀截圖合成后有明亮的像素存在時(shí),即為一個(gè)“動(dòng)作”的產(chǎn)生。但為了讓程序不那么“敏感”,我們可以設(shè)定一個(gè)閾值。當(dāng)明亮像素的個(gè)數(shù)大于該閾值時(shí),才認(rèn)為產(chǎn)生了一個(gè)“動(dòng)作”。當(dāng)然,我們也可以剔除“不足夠明亮”的像素,以盡可能避免外界環(huán)境(如燈光等)的影響。

想要獲取 Canvas 的像素信息,需要通過 ctx.getImageData(sx, sy, sw, sh),該 API 會(huì)返回你所指定畫布區(qū)域的像素對象。該對象包含 datawidthheight。其中 data 是一個(gè)含有每個(gè)像素點(diǎn) RGBA 信息的一維數(shù)組,如下圖所示。

getImageData 圖像
含有 RGBA 信息的一維數(shù)組

獲取到特定區(qū)域的像素后,我們就能對每個(gè)像素進(jìn)行處理(如各種濾鏡效果)。處理完后,則可通過 ctx.putImageData() 將其渲染在指定的 Canvas 上。

擴(kuò)展:由于 Canvas 目前沒有提供“歷史記錄”的功能,如需實(shí)現(xiàn)“返回上一步”操作,則可通過 getImageData 保存上一步操作,當(dāng)需要時(shí)則可通過 putImageData 進(jìn)行復(fù)原。

示例代碼:

let imageScore = 0const rgba = imageData.datafor (let i = 0; i < rgba.length; i += 4) { const r = rgba[i] / 3 const g = rgba[i + 1] / 3 const b = rgba[i + 2] / 3  const pixelScore = r + g + b  // 如果該像素足夠明亮 if (pixelScore >= PIXEL_SCORE_THRESHOLD) { imageScore++ }}// 如果明亮的像素?cái)?shù)量滿足一定條件if (imageScore >= IMAGE_SCORE_THRESHOLD) { // 產(chǎn)生了移動(dòng)}

在上述案例中,你也許會(huì)注意到畫面是『綠色』的。其實(shí),我們只需將每個(gè)像素的紅和藍(lán)設(shè)置為 0,即將 RGBA 的 r = 0; b = 0 即可。這樣就會(huì)像電影的某些鏡頭一樣,增加了科技感和神秘感。

體驗(yàn)地址>>

const rgba = imageData.datafor (let i = 0; i < rgba.length; i += 4) { rgba[i] = 0 // red rgba[i + 2] = 0 // blue}ctx.putImageData(imageData, 0, 0)

將 rgba 中的 r 和 b 置為 0
將 RGBA 中的 R 和 B 置為 0

跟蹤“移動(dòng)物體”

有了明亮的像素后,我們就要找出其 x 坐標(biāo)的最小值與 y 坐標(biāo)的最小值,以表示跟蹤矩形的左上角。同理,x 坐標(biāo)的最大值與 y 坐標(biāo)的最大值則表示跟蹤矩形的右下角。至此,我們就能繪制出一個(gè)能包圍所有明亮像素的矩形,從而實(shí)現(xiàn)跟蹤移動(dòng)物體的效果。

找出跟蹤矩形的左上角和右下角
找出跟蹤矩形的左上角和右下角

體驗(yàn)鏈接>>

示例代碼:

function processDiff (imageData) { const rgba = imageData.data  let score = 0 let pixelScore = 0 let motionBox = 0  // 遍歷整個(gè) canvas 的像素,以找出明亮的點(diǎn) for (let i = 0; i < rgba.length; i += 4) { pixelScore = (rgba[i] + rgba[i+1] + rgba[i+2]) / 3  // 若該像素足夠明亮 if (pixelScore >= 80) { score++  coord = calcCoord(i) motionBox = calcMotionBox(montionBox, coord.x, coord.y) } }  return { score, motionBox }}// 得到左上角和右下角兩個(gè)坐標(biāo)值function calcMotionBox (curMotionBox, x, y) { const motionBox = curMotionBox || { x: { min: coord.x, max: x }, y: { min: coord.y, max: y } } motionBox.x.min = Math.min(motionBox.x.min, x) motionBox.x.max = Math.max(motionBox.x.max, x) motionBox.y.min = Math.min(motionBox.y.min, y) motionBox.y.max = Math.max(motionBox.y.max, y) return motionBox}// imageData.data 是一個(gè)含有每個(gè)像素點(diǎn) rgba 信息的一維數(shù)組。// 該函數(shù)是將上述一維數(shù)組的任意下標(biāo)轉(zhuǎn)為 (x,y) 二維坐標(biāo)。function calcCoord(i) { return { x: (i / 4) % diffWidth, y: Math.floor((i / 4) / diffWidth) }}

在得到跟蹤矩形的左上角和右下角的坐標(biāo)值后,通過 ctx.strokeRect(x, y, width, height) API 繪制出矩形即可。

ctx.lineWidth = 6ctx.strokeRect( diff.motionBox.x.min + 0.5, diff.motionBox.y.min + 0.5, diff.motionBox.x.max - diff.motionBox.x.min, diff.motionBox.y.max - diff.motionBox.y.min)

JOY在動(dòng)
這是理想效果,實(shí)際效果請打開 體驗(yàn)鏈接

擴(kuò)展:為什么上述繪制矩形的代碼中的 x、y 要加 0.5 呢?一圖勝千言:
0.5 像素

性能縮小尺寸

在上一個(gè)章節(jié)提到,我們需要通過對 Canvas 每個(gè)像素進(jìn)行處理,假設(shè) Canvas 的寬為 640,高為 480,那么就需要遍歷 640 * 480 = 307200 個(gè)像素。而在監(jiān)測效果可接受的前提下,我們可以將需要進(jìn)行像素處理的 Canvas 縮小尺寸,如縮小 10 倍。這樣需要遍歷的像素?cái)?shù)量就降低 100 倍,從而提升性能。

體驗(yàn)地址>>

示例代碼:

const motionCanvas // 展示給用戶看const backgroundCanvas // offscreen canvas 背后處理數(shù)據(jù)motionCanvas.width = 640motionCanvas.height = 480backgroundCanvas.width = 64backgroundCanvas.height = 48

像素化
尺寸縮小 10 倍

定時(shí)器

我們都知道,當(dāng)游戲以『每秒60幀』運(yùn)行時(shí)才能保證一定的體驗(yàn)。但對于我們目前的案例來說,幀率并不是我們追求的第一位。因此,每 100 毫秒(具體數(shù)值取決于實(shí)際情況)取當(dāng)前幀與前一幀進(jìn)行比較即可。

另外,因?yàn)槲覀兊膭?dòng)作一般具有連貫性,所以可取該連貫動(dòng)作中幅度最大的(即“分?jǐn)?shù)”最高)或最后一幀動(dòng)作進(jìn)行處理即可(如存儲(chǔ)到本地或分享到朋友圈)。

延伸

至此,用 Web 技術(shù)實(shí)現(xiàn)簡易的“移動(dòng)監(jiān)測”效果已基本講述完畢。由于算法、設(shè)備等因素的限制,該效果只能以 2D 畫面為基礎(chǔ)來判斷物體是否發(fā)生“移動(dòng)”。而微軟的 Xbox、索尼的 PS、任天堂的 Wii 等游戲設(shè)備上的體感游戲則依賴于硬件。以微軟的 Kinect 為例,它為開發(fā)者提供了可跟蹤最多六個(gè)完整骨骼和每人 25 個(gè)關(guān)節(jié)等強(qiáng)大功能。利用這些詳細(xì)的人體參數(shù),我們就能實(shí)現(xiàn)各種隔空的『手勢操作』,如畫圈圈詛咒某人。

下面幾個(gè)是通過 Web 使用 Kinect 的庫:

  • DepthJS:以瀏覽器插件形式提供數(shù)據(jù)訪問。
  • Node-Kinect2: 以 Nodejs 搭建服務(wù)器端,提供數(shù)據(jù)比較完整,實(shí)例較多。
  • ZigFu:支持 H5、U3D、Flash,API較為完整。
  • Kinect-HTML5:Kinect-HTML5 用 C# 搭建服務(wù)端,提供色彩數(shù)據(jù)、深度數(shù)據(jù)和骨骼數(shù)據(jù)。

通過 Web 訪問 Kinect
通過 Node-Kinect2 獲取骨骼數(shù)據(jù)

文章至此就真的要結(jié)束了,如果你想知道更多玩法,請關(guān)注 凹凸實(shí)驗(yàn)室。同時(shí),也希望大家發(fā)掘更多玩法。

參考資料

使用HTML5開發(fā)Kinect體感游戲

MOTION DETECTION WITH JAVASCRIPT

發(fā)表評論 共有條評論
用戶名: 密碼:
驗(yàn)證碼: 匿名發(fā)表
主站蜘蛛池模板: 屏东市| 泽库县| 双柏县| 兴隆县| 天长市| 白水县| 武功县| 集贤县| 松滋市| 合川市| 西畴县| 彝良县| 琼海市| 郸城县| 江川县| 和林格尔县| 汤阴县| 东丽区| 彭山县| 灌云县| 黄大仙区| 游戏| 镇原县| 同德县| 措美县| 武宁县| 包头市| 高雄市| 团风县| 台江县| 莫力| 麦盖提县| 罗甸县| 石城县| 阿鲁科尔沁旗| 雷州市| 昌平区| 拜泉县| 怀宁县| 宁乡县| 三台县|