美章網 資料文庫 卷積神經網絡的教師打卡系統設計探討范文

卷積神經網絡的教師打卡系統設計探討范文

本站小編為你精心準備了卷積神經網絡的教師打卡系統設計探討參考范文,愿這些范文能點燃您思維的火花,激發您的寫作靈感。歡迎深入閱讀并收藏。

卷積神經網絡的教師打卡系統設計探討

摘要:借助于大數據人臉識別技術,可方便學校管理者快速實現對教師是否準時上課、準時監考進行監督管理。對教師打卡系統進行了總體設計,包括硬件設計和流程設計,在此基礎上,對人臉識別系統的設計進行了介紹,在對比多種人臉檢測模型的基礎上,選擇利用Dlib的MMOD模型實現人臉檢測功能,利用卷積神經網絡模型實現教師人臉特征的提取和識別,該模型的訓練過程采用不同光照、不同角度和不同距離的多種樣本。結果證明,該系統很好地完成了人臉識別功能,能夠實時地對教師是否準時上課、準時監考進行監督。

關鍵詞:人臉識別;Dlib庫;卷積神經網絡

1概述

教師按時上課、按時監考是教學績效考核的重要環節。傳統的依靠巡視的方式來進行管理,大大降低了教學績效考核的力度。依靠人臉識別技術,實現教師上課自動化打卡,再將教師打卡信息實時地傳輸到教學系統中來,與教學安排進行匹配,生成教師按時上課、監考的績效信息,供教學管理者進行監督和管控,加強了學校教學管理的力度,提高了教學管理的效率。

2系統架構

教師上課打卡系統架構如圖1所示,主要包括網絡攝像頭、互聯網、云平臺以及終端,其中網絡攝像頭將圖像以數據流的形式通過互聯網傳輸到云平臺,云平臺首先將這些圖像利用Dlib庫進行人臉識別,然后利用識別結果與教學系統課程數據進行匹配,生成教師按時上課、監考的績效信息,這些績效信息以圖形化報表的形式來展示,管理者通過PC機或移動終端進行信息的查看。系統流程設計如圖2所示,首先教師走到攝像頭前,攝像頭不停捕捉圖像,當進入可識別范圍內后,抓取人臉并進行識別。教師需要在攝像頭前,等待系統傳回的反饋信息,信息包括已識別或識別不成功等,教師平均等待時間為1.32s。

3人臉識別

人臉識別系統主要分為兩部分,(1)圖像檢測,(2)圖像識別。如圖3所示,當教師走到網絡攝像頭前,系統利用Dlib進行人臉檢測,當檢測到人臉后,利用OpenCV截取人臉圖像,將該圖像轉換為64*64*3的數據集,再將該數據集作為卷積神經網絡的輸入,卷積神經網絡通過卷積層和池化層對數據集進行操作,得到512維的特征向量,將該特征向量輸入給全連接層,全連接層進行分類,得到分類結果,并將分類結果標注在圖像或視頻上,識別出來的會標注名稱,沒有識別出來的會標注“其他”。

(1)人臉檢測。人臉檢測并不是人臉識別,它是對任意一幅圖像或視頻幀,確定圖像中是否包含人臉的操作,如果包含,則返回臉的位置、大小等信息。進行人臉檢測的開源軟件包有很多,應用較廣泛的主要有Arc鄄Face和Dlib,由于Dlib是C++工具箱,除了具有模型多樣化的特點外、在適用場景和適用系統上具有很高的普適性。內置的人臉識別算法主要有兩種:HOG+線性SVM的方法和MMOD-CNN的方法,其中HOG+線性SVM的方法的人臉識別度比MMOD-CNN稍低一些,主要體現在不能容忍視角旋轉的變化、光照強度的變化上,而MMOD-CNN能夠從不同的視角、光照條件和遮擋條件下檢測人臉,雖然CPU運行速度稍遜于HOG+線性SVM,但它可以在NVIDIAGPU上運行,速度會變得更快。系統利用Dlib的MMOD-CNN的方法實現教職工人臉檢測功能。

(2)基于卷積神經網絡的人臉識別。卷積神經網絡的優點是不用自己提取具體的特征,避免對圖像進行前期的復雜預處理,也避免出現特征提取分類效果不好、相關度高等問題,它可以直接輸入原始圖像,通過卷積等操作,逐步抽象出圖像的特征向量,被廣泛應用到圖像識別中。卷積神經網絡的基本結構包括兩部分,一是特征提取,二是分類。

(1)特征提取。卷積神經網絡包含多個卷積層,每個卷積層利用卷積核掃描整個圖像,得到特征圖,前面的卷積層捕捉局部信息,有小的感受野,后面的卷積層感受野逐層加大,用于捕獲更復雜、更抽象的圖像信息。經過多個卷積層的運算,最后得到圖像在各個不同尺度的抽象表示。這與人們觀察圖像的方式是一致的,圖像的局部像素聯系比較緊密,而較遠的像素相關性比較弱,所以每個神經元沒有必要對全局圖像進行感知,只要對局部進行感知,而到了更高層次再對局部的信息進行綜合操作得出全局信息。由于卷積之后產生大量的參數,再采用池化層來稀疏參數,從而降低網絡的復雜度。

(2)分類。通過卷積神經網絡的特征提取功能得到了特征向量,再利用卷積神經網絡的全連接層實現分類的操作。全連接層就相當于傳統的前饋神經網絡中的隱含層,它位于卷積神經網絡的最后部分。全連接層的作用是對提取的特征進行非線性組合以得到輸出,它利用特征向量完成機器學習的目標。系統獲取3247名教師進行不同時間段的每人75張人臉圖片,共計243525張人臉圖片,來訓練卷積模型,如圖4所示,保存的人臉圖片的大小為64*64,分為R、G、B3個通道,把截取的小圖片送入神經網絡進行訓練,輸入的圖片64*64*3,網絡共3層卷積層,卷積核大小為(3,3),卷積步長為[1,1,1,1]。卷積層用來提取特征,增加通道個數,但是圖片大小沒有變化,采用最大值采樣的池化層采用,把特征圖分割成許多個2*2大小的矩形,取每個矩形的最大值,形成特征圖,輸出的特征圖的長和寬均是輸入特征圖大小的一半。

4結語

系統采用光照、距離和角度3個維度來制定訓練樣本,如圖5所示。其中,光照維度有5種類型,分別是白天4講課和晚上一講課上課時對應的不同光照強度,距離維度有5種類型,分別到網絡攝像頭的距離是10cm、20cm、30cm、40cm和50cm,角度維度主要有3個,分別是正面、左側面、右側面。全校3247名上課教師,每名教師收集75張人臉照片,共計243525樣本,做好分類結果的標注,形成3247位老師的人臉特征向量。每位老師進行50次識別測試,測試者走進網絡攝像頭,不斷調整距離和角度,以5s作為識別時間期限,共計162350次識別結果中,有8次沒有檢測到人臉,有32次識別錯誤,漏報率僅為0.0049%,誤報率為0.0197%,識別效果良好。

作者:張培培 單位:華北理工大學管理學院

主站蜘蛛池模板: 成年美女黄网站小视频| 新梅瓶1一5集在线观看| 门国产乱子视频观看| 美女和男人免费网站视频| 欧美精品久久天天躁| 啊昂…啊昂高h| 高清成人爽a毛片免费网站| 国产精品国产三级国产普通话| gta5圣堂酒店第三辆车在哪里| 我要看免费毛片| 久久狠狠高潮亚洲精品| 欧美伊人久久大香线蕉在观| 亚洲香蕉久久一区二区 | 日本中文字幕有码视频| 亚洲av丰满熟妇在线播放| 欧美综合自拍亚洲综合图片| 免费一级毛片免费播放| 精品综合久久久久久97| 国产一在线精品一区在线观看| 国产精品喷水在线观看| 国产精品一区二区av| 91av福利视频| 在线观看a网站| linmm视频在线观看| 怡红院美国分院一区二区| 丰满多毛的陰户视频| 日本精品高清一区二区| 亚洲AV无码久久| 欧美中文字幕一区| 亚洲国产精品一区二区成人片国内| 波多野结衣护士系列播放| 免费一级一片一毛片| 精品亚洲欧美无人区乱码| 又硬又粗又长又爽免费看| 色偷偷偷久久伊人大杳蕉| 国产亚洲成AV人片在线观看| 香蕉视频在线精品| 国产成人a大片大片在线播放| 亚洲激情中文字幕| 国产精品久久久尹人香蕉| 2021国产精品自在拍在线播放|