日韩中文字幕久久久97都市激情,久久91网,亚洲天堂最新,国产精品嫩草影院九色,亚洲午夜精品一本二本,精品少妇一区二区三区蜜桃,av一道本

一種視頻圖像中蒙面紗檢測的方法及系統(tǒng)的制作方法

文檔序號:10687536閱讀:768來源:國知局
一種視頻圖像中蒙面紗檢測的方法及系統(tǒng)的制作方法
【專利摘要】本發(fā)明涉及一種視頻圖像中蒙面紗檢測的方法及系統(tǒng),該方法通過讀入視頻流后采用混合高斯背景建模建立背景模型,利用背景減除法求取移動物體的像素點作為前景點;對前景點進行形態(tài)學(xué)運算,去除噪聲同時對孔洞進行填充,得到聯(lián)通區(qū)域并進行標(biāo)記,并將連續(xù)標(biāo)記區(qū)域提取出來作為最終的前景區(qū)域;在最終的前景區(qū)域上進行移動物體的特征提取;采用分類器對提取的特征分類,檢測前景區(qū)域是否有行人;檢測到有行人時,檢測該行人的頭肩位置,在此基礎(chǔ)上檢測行人的人臉是否完整;若人臉不完整則標(biāo)記并連續(xù)跟蹤記錄該行人的運動方向并判斷該行人運動方向為預(yù)定方向時報警。從而為在視頻圖像中有效地進行蒙面紗檢測提供一種有效的檢測手段。
【專利說明】
一種視頻圖像中蒙面紗檢測的方法及系統(tǒng)
技術(shù)領(lǐng)域
[0001] 本發(fā)明屬于圖像識別技術(shù)領(lǐng)域,具體涉及一種視頻圖像中蒙面紗檢測的方法及系 統(tǒng)。
【背景技術(shù)】
[0002] 在一些不安全的地區(qū),為了社會安全的需要,需要對一些穿著特別服飾的人物進 行特別檢測識別,做到提前預(yù)防控制。目前雖然可以采集監(jiān)控區(qū)域的圖像對相應(yīng)的區(qū)域進 行實時監(jiān)測,但無法有針對性地一些不安定的人物,如佩戴蒙面紗的人物進行提前監(jiān)測識 別并進行預(yù)警。

【發(fā)明內(nèi)容】

[0003] 本發(fā)明的目的在于解決上述的技術(shù)問題而提供一種視頻圖像中蒙面紗檢測的方 法及系統(tǒng)。
[0004] 為實現(xiàn)上述目的,本發(fā)明采用如下技術(shù)方案:
[0005] -種視頻圖像中蒙面紗檢測的方法,包括以下步驟:
[0006] 讀入視頻流并采用混合高斯背景建模建立背景模型;
[0007] 利用背景減除法及背景模型求取移動物體的像素點作為前景點;
[0008] 對前景點進行形態(tài)學(xué)運算,去除噪聲同時對孔洞進行填充,得到聯(lián)通區(qū)域并進行 標(biāo)記,并將連續(xù)標(biāo)記區(qū)域提取出來作為最終的前景區(qū)域;
[0009]在該最終的前景區(qū)域上進行移動物體的特征提取;
[0010]采用adaboost分類器對提取的特征進行分類,檢測前景區(qū)域是否存在行人;
[0011]在檢測到有行人時,利用預(yù)設(shè)的頭肩模型檢測出該行人的頭肩位置,并在此基礎(chǔ) 上檢測行人的人臉是否完整;
[0012] 若人臉不完整則標(biāo)記并連續(xù)跟蹤記錄該標(biāo)記的行人,對該行人的運動方向進行檢 測,在判斷該行人的運動方向為預(yù)定的方向時進行報警。
[0013] 所述特征為haar特征,所述檢測行人的人臉是否完整采用特征臉檢測方法。
[0014] 所述利用背景減除法及背景模型求取移動物體的像素點作為前景點的步驟為:判 斷當(dāng)前建模點與對應(yīng)的背景模型是否匹配,若匹配則當(dāng)前建模點為背景點,否則當(dāng)前建模 點為前景點。
[0015] 所述判斷當(dāng)前建模點與對應(yīng)的背景模型是否匹配采用以下步驟:
[0016] 判斷當(dāng)前建模點對應(yīng)的背景模型的變化量是否在預(yù)設(shè)的匹配閾值范圍內(nèi)和\或當(dāng) 前建模點的平均梯度與背景模型里的梯度相差是否在預(yù)定的百分比閾值范圍內(nèi),若有一項 不在則認(rèn)為不匹配。
[0017] 所述匹配閾值表示為:
[0018] Thresholdi= (Valuebase+Theta)*Sensitivit y
[0019] 其中,Valuebase是基礎(chǔ)閾值,Theta是方差,Sensitivit y是靈敏度。
[0020]本發(fā)明的目的還在于提供一種視頻圖像中蒙面紗檢測的系統(tǒng),包括:
[0021 ]背景模塊建立模塊,用于讀入視頻流并采用混合高斯背景建模建立背景模型;
[0022] 前景點獲取模塊,用于利用背景減除法及背景模型求取移動物體的像素點作為前 景點;
[0023] 前景區(qū)域確定模塊,用于對前景點進行形態(tài)學(xué)運算,去除噪聲同時對孔洞進行填 充,得到聯(lián)通區(qū)域并進行標(biāo)記,并將連續(xù)標(biāo)記區(qū)域提取出來作為最終的前景區(qū)域;
[0024] 特征提取模塊,用于在該最終的前景區(qū)域上進行移動物體的特征提取;
[0025]行人檢測模塊,用于采用adaboost分類器對提取的特征進行分類,檢測前景區(qū)域 是否存在行人;
[0026] 人臉檢測模塊,有于在檢測到有行人時,利用預(yù)設(shè)的頭肩模型檢測出該行人的頭 肩位置,并在此基礎(chǔ)上檢測行人的人臉是否完整;
[0027] 運動方向檢測模塊,用于在檢測到人臉不完整并標(biāo)記后,連續(xù)跟蹤記錄該標(biāo)記的 行人并對該行人的運動方向進行檢測,并判斷該行人的運動方向為預(yù)定的方向時進行報 警。
[0028] 本發(fā)明通過以上技術(shù)方案,可以快速地在視頻圖像中檢測出圖像中的運動物體并 判斷是否為行人,在判斷為行人后檢測行人的頭肩位置來檢測人臉是否完整來判斷行人是 否佩戴蒙面紗并跟蹤行人運動方向,并在運行方向為預(yù)定的報警方向時進行報警,為在視 頻圖像中快速檢測佩戴有蒙面紗的蒙面人提供了一種有效的檢測識別方法。
【附圖說明】
[0029] 圖1為本發(fā)明實施例提供的視頻圖像中蒙面紗檢測的方法的流程圖;
[0030] 圖2所示Haar特征的示意圖。
【具體實施方式】
[0031]下面,結(jié)合實例對本發(fā)明的實質(zhì)性特點和優(yōu)勢作進一步的說明,但本發(fā)明并不局 限于所列的實施例。
[0032] 參見圖1所示,一種視頻圖像中蒙面紗檢測的方法,包括:
[0033] SlOl,讀入視頻流并采用混合高斯背景建模建立背景模型;
[0034] S102,利用背景減除法及背景模型求取移動物體的像素點作為前景點;
[0035] S103,對前景點進行形態(tài)學(xué)運算,去除噪聲同時對孔洞進行填充,得到聯(lián)通區(qū)域并 進行標(biāo)記,并將連續(xù)標(biāo)記區(qū)域提取出來作為最終的前景區(qū)域;
[0036] S10 4,在該最終的前景區(qū)域上進彳丁移動物體的特征提取 [0037] 其中,所述特征為haar特征;
[0038] S105,采用adaboost分類器對提取的特征進行分類,檢測前景區(qū)域是否存在行人;
[0039] 本發(fā)明中,所述分類器主要是adaboost級聯(lián)強分類器;
[0040] 即是將采用adaboost分類器對提取的特征輸入訓(xùn)練好的行人分類器,來檢測前景 區(qū)域是否存在行人,即判斷是否存在行人,如不存在則返SlOl繼續(xù)檢測,若存在則進行下一 步;
[0041] S106,在檢測到有行人時,利用預(yù)設(shè)的頭肩模型檢測出該行人的頭肩位置,并在此 基礎(chǔ)上檢測行人的人臉是否完整;
[0042] 在檢測人臉是否完整,主要是基于特征臉(Eigenface)方法檢測進行,檢測是否存 在有效人臉信息,其人臉不完整則標(biāo)記進行一步;
[0043] S107,若人臉不完整則標(biāo)記,并連續(xù)跟蹤記錄該標(biāo)記的行人,對該行人的運動方向 進行檢測、標(biāo)記,在判斷該行人的運動方向為預(yù)定的方向時進行報警。
[0044] 具體的,也就是判斷該人臉不完整的行人的運動方向為面對攝像頭時進行報警提 不。
[0045] 本發(fā)明通過以上技術(shù)方案,可以快速地在視頻圖像中檢測出圖像中的運動物體并 判斷是否為行人,在判斷為行人后檢測行人的頭肩位置來檢測人臉是否完整來判斷行人是 否佩戴蒙面紗并跟蹤行人運動方向,并在運行方向為預(yù)定的報警方向時進行報警,為在視 頻圖像中快速檢測佩戴有蒙面紗的蒙面人提供了一種有效的檢測識別方法。
[0046] 下面,結(jié)合具體的背景建模方法、haar特征提取,采用adaboost分類器對haar特征 分類來說明本發(fā)明的實現(xiàn)過程。
[0047] Stepl:讀入視頻流;
[0048] Step2:采用混合高斯背景建模,建立背景模型;
[0049] 因攝像機為固定視角所以被檢測行人為移動目標(biāo)或移動物體,采用混合高斯背景 建模,建立背景模型后可以將目標(biāo)鎖定為移動物體,并為后續(xù)檢測提供合理的目標(biāo)區(qū)域。
[0050] 背景建模的流程主要包括三個步驟:背景模型的初始化、背景模型的匹配更新、背 景學(xué)習(xí)成功并檢測前景。建模點分為前景點和背景點兩類。在更新學(xué)習(xí)過程中需采用不同 的速率對其匹配的高斯模型進行更新。
[0051] 對于第一幀數(shù)據(jù)利用當(dāng)前圖像的建模點數(shù)據(jù)初始化最先分配的高斯模型,之后依 據(jù)建模點的數(shù)據(jù)不斷訓(xùn)練對應(yīng)的模型均值、方差和權(quán)重。當(dāng)建模點權(quán)重達到設(shè)定的建模成 功閾值,說明該建模點建模成功,反之繼續(xù)學(xué)習(xí),直到權(quán)重滿足閾值。
[0052] 通過對建模點高斯模型參數(shù)不斷的訓(xùn)練和學(xué)習(xí),越來越多的建模點建模成功,統(tǒng) 計整幀圖像中建模成功的建模點數(shù)量,若達到整幅圖像建模點總數(shù)的1/5,則背景學(xué)習(xí)成 功。然后進入前景檢測階段,并對檢測到的前景點和背景點分別以不同速率更新背景模型, 以提高背景模型的適應(yīng)性。
[0053] Step3:背景建模完成后進入前景檢測階段,即利用背景減除法將移動物體提取出 來作為前景,主要是求取移動物體或移動目標(biāo)的像素點作為前景點來實現(xiàn)的。具體的可以 利用當(dāng)前建模點與對應(yīng)背景模型進行匹配來實現(xiàn)。匹配的判斷閾值是與對應(yīng)的背景模型方 差有關(guān),模型會根據(jù)其值的變化自適應(yīng)的調(diào)整,各顏色分量的模型匹配閾值可表示為:
[0054] Thresholdi= (Valuebase+Theta)*Sensitivit y
[0055] 其中,Valuebase是基礎(chǔ)閾值,Theta是方差,Sensitivit y是靈敏度。若建模點與其 背景模型的變化量在這個閾值范圍內(nèi),說明建模點與該模型匹配。此外當(dāng)前建模點的平均 梯度與背景模型里的梯度相差超過一定的值,如20%,即被認(rèn)為不匹配。
[0056] 另外在背景模型中若背景模型沒有建模成功,則默認(rèn)為該建模點為背景點。在建 模點對應(yīng)的背景模型成功的情況下,若該建模點與其背景模型未匹配,則該建模點不一定 為前景點,還要同其四鄰域的建模點的背景模型做匹配,若匹配依然未成功,則該建模點確 定為前景點,反之,此點依然是背景點。
[0057] Step4:對前景點進行形態(tài)學(xué)運算,去除噪聲同時對孔洞進行填充,得到聯(lián)通區(qū)域 并進行標(biāo)記。
[0058] Step5:將連續(xù)標(biāo)記區(qū)域提取出來作為最終的前景區(qū)域。
[0059] Step6:在前景區(qū)域上進行移動目標(biāo)或移動物體的特征提取。
[0000]這里的特征提取是指haar特征提取:
[0061 ] Haar特征分為三類:邊緣特征、線性特征、中心特征和對角線特征,它們組合成特 征模板,特征模板內(nèi)有白色和黑色兩種矩形,并定義該模板的特征值為白色矩形像素和減 去黑色矩形像素和。Haar特征值反映了圖像的灰度變化情況。
[0062] 例如臉部的一些特征能由矩形特征簡單的描述,如眼睛要比臉頰顏色要深,鼻梁 兩側(cè)比鼻梁顏色要深,嘴巴比周圍顏色要深等。但矩形特征只對一些簡單的圖形結(jié)構(gòu),如邊 緣、線段較敏感,所以只能描述特定走向(水平、垂直、對角)的結(jié)構(gòu),參見圖2所示。
[0063] 對于圖2中的A、B和D這類特征,特征數(shù)值計算公式為:
[0064] V = Sum 白-Sum 黑;
[0065] 而對于C來說,計算公式如下:V = Sum白-2*Sum黑;
[0066]之所以將黑色區(qū)域像素和乘以2,是為了使兩種矩形區(qū)域中像素數(shù)目一致。通過改 變特征模板的大小和位置,可在圖像子窗口中窮舉出大量的特征。上圖的特征模板稱為"特 征原型";特征原型在圖像子窗口中擴展(平移伸縮)得到的特征稱為"矩形特征";矩形特征 的值稱為"特征值"。
[0067] Step7:采用adaboost分類器對上述特征進行分類,檢測前景區(qū)域是否存在有效行 人,如存在則轉(zhuǎn)入下一步,否則重新讀取下一幀視頻。
[0068] Adboost分類器原理:AdaBoost是一種迭代算法,在每一輪中加入一個新的弱分類 器,直到達到某個預(yù)定的足夠小的錯誤率。每一個訓(xùn)練樣本都被賦予一個權(quán)重,表明它被某 個分類器選入訓(xùn)練集的概率。如果某個樣本點已經(jīng)被準(zhǔn)確地分類,那么在構(gòu)造下一個訓(xùn)練 集中,它被選中的概率就被降低;相反,如果某個樣本點沒有被準(zhǔn)確地分類,那么它的權(quán)重 就得到提高。
[0069] Adaboost的算法流程如下:
[0070] 1.首先,初始化訓(xùn)練數(shù)據(jù)的權(quán)值分布。每一個訓(xùn)練樣本最開始時都被賦予相同的 權(quán)重:1/N。
[0071]
[0072] 接下來,如果某個樣本點已經(jīng)被準(zhǔn)確地分類,那么在構(gòu)造下一個訓(xùn)練集中,它被選 中的概率就被降低;相反,如果某個樣本點沒有被準(zhǔn)確地分類,那么它的權(quán)重就得到提高。 具體說來,則是:
[0073] 2.對于m=l,2, · · ·,M
[0074] a.使用具有權(quán)值分布Dm的訓(xùn)練數(shù)據(jù)集學(xué)習(xí),得到基本二元分類器:
[0075] Gm(X) :X~^{-1,+1}
[0076] b.計算Gm(X)在訓(xùn)練數(shù)據(jù)集上的分類誤差率
[0077]
[0078] C.計算Gm(X)的系數(shù),am表示Gm(X)在最終分類器中的重要程度:
[0079]
[0080]由上述式子可知,em〈 = 1/2時,am> = 0,且am隨著em的減小而增大,意味著分類誤 差率越小的基本分類器在最終分類器中的作用越大。
[0081 ] d.更新訓(xùn)練數(shù)據(jù)集的權(quán)值分布
[0082]
[0083]
[0084]使得被基本分類器Gm(X)誤分類樣本的權(quán)值增大,而被正確分類樣本的權(quán)值減小。 就這樣,通過這樣的方式,AdaBoost方法能"聚焦于"那些較難分的樣本上。
[0085] 其中,Zm是規(guī)范化因子,使得Dm+1成為一個概率分布:
[0086]
[0087]
[0088]
[0089]
[0090]
[0091] StepS:對已檢測出的行人利用頭肩模型,檢測出行人頭肩位置。
[0092]頭肩模型主要是利用頭肩形狀呈現(xiàn)Ω形狀,進行篩選。采集行人的頭肩圖片作為 正樣本,采用上面的特征學(xué)習(xí)方法進行特征訓(xùn)練和學(xué)習(xí),得到行人頭肩位置。
[0093] Step9:在此基礎(chǔ)上檢測完整人臉,如存在完整人臉則說明此人非穿著蒙面紗人 士,如不存在完整人臉則為蒙面,對蒙面人士進行標(biāo)記。
[0094] Step 10:連續(xù)跟蹤標(biāo)記目標(biāo),進行方向檢測。在對蒙面人士進行跟蹤標(biāo)記并通過位 置變化計算出目標(biāo)運動的方向。
[0095] Stepll:針對以上檢測結(jié)果進行報警判斷,如非完整人臉且運動方向是面朝攝像 機前景,則認(rèn)為是蒙面紗人士,進行報警,否則無有效目標(biāo)出現(xiàn),讀取下一幀。
[0096] Stepl2:輸出報警。
[0097] 本發(fā)明的目的還在于提供一種視頻圖像中蒙面紗檢測的系統(tǒng),包括:
[0098]背景模塊建立模塊,用于讀入視頻流并采用混合高斯背景建模建立背景模型; [0099]前景點獲取模塊,用于利用背景減除法及背景模型求取移動物體的像素點作為前 景點;
[0100]前景區(qū)域確定模塊,用于對前景點進行形態(tài)學(xué)運算,去除噪聲同時對孔洞進行填 充,得到聯(lián)通區(qū)域并進行標(biāo)記,并將連續(xù)標(biāo)記區(qū)域提取出來作為最終的前景區(qū)域;
[0101] 特征提取模塊,用于在該最終的前景區(qū)域上進行移動物體的特征提取;
[0102] 行人檢測模塊,用于采用adaboost分類器對提取的特征進行分類,檢測前景區(qū)域 是否存在行人;
[0103] 人臉檢測模塊,有于在檢測到有行人時,利用預(yù)設(shè)的頭肩模型檢測出該行人的頭 肩位置,并在此基礎(chǔ)上檢測行人的人臉是否完整;
[0104] 運動方向檢測模塊,用于在檢測到人臉不完整并標(biāo)記后,連續(xù)跟蹤記錄該標(biāo)記的 行人并對該行人的運動方向進行檢測,并判斷該行人的運動方向為預(yù)定的方向時進行報 警。
[0105] 該視頻圖像中蒙面紗檢測的系統(tǒng)的檢測方法與原理,同本發(fā)明的實施例視頻圖像 中蒙面紗檢測的方法原理相同,在此不再進行說明。
[0106] 本發(fā)明通過以上技術(shù)方案,可以快速地在視頻圖像中檢測出圖像中的運動物體并 判斷是否為行人,在判斷為行人后檢測行人的頭肩位置來檢測人臉是否完整來判斷行人是 否佩戴蒙面紗并跟蹤行人運動方向,并在運行方向為預(yù)定的報警方向時進行報警,為在視 頻圖像中快速檢測佩戴有蒙面紗的蒙面人提供了一種有效的檢測識別方法。
[0107] 以上所述僅是本發(fā)明的優(yōu)選實施方式,應(yīng)當(dāng)指出,對于本技術(shù)領(lǐng)域的普通技術(shù)人 員來說,在不脫離本發(fā)明原理的前提下,還可以做出若干改進和潤飾,這些改進和潤飾也應(yīng) 視為本發(fā)明的保護范圍。
【主權(quán)項】
1. 一種視頻圖像中蒙面紗檢測的方法,其特征在于,包括以下步驟: 讀入視頻流并采用混合高斯背景建模建立背景模型; 利用背景減除法及背景模型求取移動物體的像素點作為前景點; 對前景點進行形態(tài)學(xué)運算,去除噪聲同時對孔洞進行填充,得到聯(lián)通區(qū)域并進行標(biāo)記, 并將連續(xù)標(biāo)記區(qū)域提取出來作為最終的前景區(qū)域; 在該最終的前景區(qū)域上進行移動物體的特征提取; 采用adaboost分類器對提取的特征進行分類,檢測前景區(qū)域是否存在行人; 在檢測到有行人時,利用預(yù)設(shè)的頭肩模型檢測出該行人的頭肩位置,并在此基礎(chǔ)上檢 測行人的人臉是否完整; 若人臉不完整則標(biāo)記并連續(xù)跟蹤記錄該標(biāo)記的行人,對該行人的運動方向進行檢測, 在判斷該行人的運動方向為預(yù)定的方向時進行報警。2. 根據(jù)權(quán)利要求1所述視頻圖像中蒙面紗檢測的方法,其特征在于,所述特征為haar特 征,所述檢測行人的人臉是否完整采用特征臉檢測方法。3. 根據(jù)權(quán)利要求1所述視頻圖像中蒙面紗檢測的方法,其特征在于,所述利用背景減除 法及背景模型求取移動物體的像素點作為前景點的步驟為:判斷當(dāng)前建模點與對應(yīng)的背景 模型是否匹配,若匹配則當(dāng)前建模點為背景點,否則當(dāng)前建模點為前景點。4. 根據(jù)權(quán)利要求2所述視頻圖像中蒙面紗檢測的方法,其特征在于,所述判斷當(dāng)前建模 點與對應(yīng)的背景模型是否匹配采用以下步驟: 判斷當(dāng)前建模點對應(yīng)的背景模型的變化量是否在預(yù)設(shè)的匹配閾值范圍內(nèi)和\或當(dāng)前建 模點的平均梯度與背景模型里的梯度相差是否在預(yù)定的百分比閾值范圍內(nèi),若有一項不在 則認(rèn)為不匹配。5. 根據(jù)權(quán)利要求3所述視頻圖像中蒙面紗檢測的方法,其特征在于,所述匹配閾值表示 為: Thresholdi= (Valuebase+Theta)氺 Sensitivity 其中,Valuebase是基礎(chǔ)閾值,Theta是方差,Sensitivity是靈敏度。6. -種視頻圖像中蒙面紗檢測的系統(tǒng),其特征在于,包括: 背景模塊建立模塊,用于讀入視頻流并采用混合高斯背景建模建立背景模型; 前景點獲取模塊,用于利用背景減除法及背景模型求取移動物體的像素點作為前景 占 . 前景區(qū)域確定模塊,用于對前景點進行形態(tài)學(xué)運算,去除噪聲同時對孔洞進行填充,得 到聯(lián)通區(qū)域并進行標(biāo)記,并將連續(xù)標(biāo)記區(qū)域提取出來作為最終的前景區(qū)域; 特征提取模塊,用于在該最終的前景區(qū)域上進行移動物體的特征提取; 行人檢測模塊,用于采用adaboost分類器對提取的特征進行分類,檢測前景區(qū)域是否 存在行人; 人臉檢測模塊,有于在檢測到有行人時,利用預(yù)設(shè)的頭肩模型檢測出該行人的頭肩位 置,并在此基礎(chǔ)上檢測行人的人臉是否完整; 運動方向檢測模塊,用于在檢測到人臉不完整并標(biāo)記后,連續(xù)跟蹤記錄該標(biāo)記的行人 并對該行人的運動方向進行檢測,并判斷該行人的運動方向為預(yù)定的方向時進行報警。7. 根據(jù)權(quán)利要求6所述視頻圖像中蒙面紗檢測的系統(tǒng),其特征在于,所述特征為haar特 征,所述檢測行人的人臉是否完整采用特征臉檢測方法。8. 根據(jù)權(quán)利要求6所述視頻圖像中星月圖案檢測的系統(tǒng),其特征在于,所述利用背景減 除法及背景模型求取移動物體的像素點作為前景點的步驟為:判斷當(dāng)前建模點與對應(yīng)的背 景模型是否匹配,若匹配則當(dāng)前建模點為背景點,否則當(dāng)前建模點為前景點。9. 根據(jù)權(quán)利要求6所述視頻圖像中蒙面紗檢測的系統(tǒng),其特征在于,所述判斷當(dāng)前建模 點與對應(yīng)的背景模型是否匹配采用以下步驟: 判斷當(dāng)前建模點對應(yīng)的背景模型的變化量是否在預(yù)設(shè)的匹配閾值范圍內(nèi)和\或當(dāng)前建 模點的平均梯度與背景模型里的梯度相差是否在預(yù)定的百分比閾值范圍內(nèi),若有一項不在 則認(rèn)為不匹配。10. 根據(jù)權(quán)利要求6-9任一項所述視頻圖像中蒙面紗檢測的系統(tǒng),其特征在于,所述匹 配閾值表示為: Thresholdi= (Valuebase+Theta)氺 Sensitivity 其中,Valuebase是基礎(chǔ)閾值,Theta是方差,Sensitivity是靈敏度。
【文檔編號】G06K9/00GK106056060SQ201610356813
【公開日】2016年10月26日
【申請日】2016年5月26日
【發(fā)明人】張德馨
【申請人】天津艾思科爾科技有限公司
網(wǎng)友詢問留言 已有0條留言
  • 還沒有人留言評論。精彩留言會獲得點贊!
1