Xem mẫu
- LIÊN NGÀNH ĐIỆN - ĐIỆN TỬ - TỰ ĐỘNG HÓA
Phát hiện khẩu trang sử dụng mô hình học sâu MobileNetV2
Face Mask Detector using Deep Learning model MobileNetV2
Phạm Thị Hường
Email: pthuong@saodo.edu.vn
Trường Đại học Sao Đỏ
Ngày nhận bài: 13/4/2020
Ngày nhận bài sửa sau phản biện: 26/9/2020
Ngày chấp nhận đăng: 30/9/2020
Tóm tắt
Nghiên cứu này trình bày phương pháp học sâu (deep learning - DL) MobileNetV2 nhằm phát hiện người
đeo khẩu trang trên ảnh và video thời gian thực. Mạng được huấn luyện để thực hiện nhận dạng hai lớp
gồm những người đeo khẩu trang và những người không đeo khẩu trang, đầu vào là các ảnh mầu RBG
với độ phân giải 224×224. Các ảnh mẫu được lấy từ cơ sở dữ liệu Real World Masked Face Dataset. Kết
quả thử nghiệm trên bộ mẫu gồm 4.591 mẫu cho khả năng phát hiện chính xác đạt 99,22% cho thấy đây
là một trong những phương pháp góp phần hạn chế lây nhiễm dịch bệnh COVID-19 nhằm bảo vệ sức
khỏe cộng đồng.
Từ khóa: COVID-19; học sâu; phát hiện khẩu trang.
Abstract
This study presents a deep learning method to detect people who wear masks on images and real-
time videos. A MobileNetV2 network was used to train a binary recognition task (people with mask or
without mask). The input RGB color images were at resolution of 224×224. The set of 4.591 images was
taken from Real World Fase Dataset to train and test the network. Numerical results showed an accurate
detection at 99,22%, whichproves that this could be one of the measures contributing to the limit of
COVID-19 disease transmission to protect public health.
Keywords: COVID-19; deep learning; face mask detection.
1. ĐẶT VẤN ĐỀ ra COVID-19, kết hợp với bằng chứng mới xuất
hiện từ các nghiên cứu lâm sàng và trong phòng
Hiện tại, dịch bệnh COVID-19 vẫn có diễn biến
thí nghiệm cho thấy khẩu trang làm giảm việc phun
phức tạp trên toàn thế giới, nó không chỉ ảnh
các giọt bắn khi đeo qua mũi và miệng [2]. Các
hưởng đến kinh tế, thương mại, dịch vụ mà còn
giọt cũng có thể rơi xuống các bề mặt nơi vi-rút có
ảnh hưởng không nhỏ đến tâm lý xã hội của người
thể tồn tại. Do đó, môi trường trực tiếp của một cá
dân và chưa có vacxin điều trị cho nên cần kiểm nhân bị nhiễm bệnh có thể đóng vai trò là nguồn
soát tốt nguồn lây nhiễm. Leung et al. [1] cho rằng lây truyền do tiếp xúc. Theo các chuyên gia của Tổ
khẩu trang có thể làm giảm sự lây lan của vi-rút chức Y tế thế giới (WHO), đeo khẩu trang có thể
Corona vì đa số các ca lây nhiễm COVID-19 do hạn chế sự lây lan của một số bệnh đường hô hấp
tiếp xúc rất gần và không đeo khẩu trang khi nói trong đó có COVID-19. Dịch bệnh này lây lan chủ
chuyện. Theo trung tâm kiểm soát bệnh tật CDC yếu giữa những người tiếp xúc gần với nhau (trong
(Centers for Disease Control and Prevention), khoảng 6 feet), vì vậy việc sử dụng khẩu trang đặc
khẩu trang được khuyến nghị là một rào chắn đơn biệt quan trọng ở những nơi mọi người gần nhau
giản để giúp ngăn các giọt bắn từ đường hô hấp hoặc nơi khó có thể duy trì cách ly xã hội. WHO
bay vào không khí và lên người khác. Khuyến nghị cũng khuyến cáo mọi người nên đeo khẩu trang
này dựa trên nghiên cứu vai trò của các giọt bắn nếu họ có triệu chứng hô hấp, hoặc họ đang chăm
từ đường hô hấp đối với sự lây lan của vi-rút gây sóc những người có triệu chứng [3].
Như vậy, phát hiện người đeo khẩu trang đề cập
Người phản biện: 1. PGS. TS. Trần Hoài Linh đến việc phát hiện xem một người đeo khẩu trang
2. TS. Đỗ Văn Đỉnh hay không và vị trí của khuôn mặt đó [4] trở thành
Tạp chí Nghiên cứu khoa học, Trường Đại học Sao Đỏ, ISSN 1859-4190, Số 3 (70) 2020 5
- NGHIÊN CỨU KHOA HỌC
một nhiệm vụ quan trọng nhưng nghiên cứu liên nhầm. Ở Pháp cũng sử dụng AI để kiểm tra xem
quan đến vấn đề này chưa phổ biến. Trên thế giới, mọi người có đeo khẩu trang trên phương tiện giao
đã có một số nghiên cứu phát hiện người đeo hay thông công cộng hay không như tại ga tàu điện
không đeo khẩu trang. Trong [5] đã xây dựng mô ngầm Chatelet-Les Halles. Tại Việt Nam, Robot do
hình CNN để phát hiện khuôn mặt đeo khẩu trang, Đại học Công nghệ (ĐH Quốc gia) chế tạo để phát
mô hình có độ chính xác 98,86% với bộ huấn luyện hiện người không đeo khẩu trang và nhắc nhở sử
và 96,19% với bộ thử nghiệm. Tác giả sử dụng đặc dụng những thiết bị, linh kiện có sẵn. Camera tích
trưng Haar để phát hiện khuôn mặt và CNN với các hợp cảm biến laser để đo khoảng cách, phát hiện
lớp khác nhau như Conv2D, MaxPooling2D, Flatten, người ra vào cửa. Cùng lúc, camera sẽ thu lại hình
Dropout và Dense. Trong [6] sử dụng PyTorch và ảnh và truyền tới máy tính. Các chi tiết chính trên
khuôn mặt như mắt, mũi, miệng sẽ được số hóa
CNN để cài đặt học sâu. Các mô hình đã được thử
và xử lý. Nếu máy tính phát hiện mũi và miệng bị
nghiệm với hình ảnh và video thời gian thực với độ
che, có nghĩa là người đó đang đeo khẩu trang.
chính xác của mô hình là 60%. Trong [7] dùng mô
Còn trong trường hợp miệng bị che nhưng mũi
hình học sâu thay vì mô hình Haar-Cascade, CNN
hở, hoặc cả mũi và miệng đều hở, nghĩa là người
sử dụng 4 lớp chập theo sau là 2 lớp tuyến tính,
đó đeo chưa đúng cách hoặc không đeo. Khi đó
dùng ReLU làm chức năng kích hoạt và MaxPool2
máy tính sẽ lập tức kích hoạt loa và phát ra thông
là lớp tổng hợp. Huấn luyện mô hình trong 10 lần
báo. Độ chính xác phụ thuộc nhiều vào bối cảnh,
lặp và độ chính xác đạt cao nhất tại lần lặp thứ 8
chẳng hạn ánh sáng, cách di chuyển của người
là 99%. Trong [8], sử dụng deepleaning và bộ dữ
ra vào cao nhất đã đạt 95%. Như vậy, phát hiện
liệu của tác giả Prajna Bhandary là bộ dữ liệu đào
khẩu trang là một nhiệm vụ cần thiết trong tình hình
tạo có phần hạn chế bởi nhãn lớp có khẩu trang hiện nay, mục tiêu ngoài nhắc nhở những cá nhân
được tạo một cách nhân tạo. Cụ thể, chụp ảnh không đeo khẩu trang, mà còn tạo ra dữ liệu thống
bình thường của khuôn mặt sau đó tùy chỉnh để kê giúp chính quyền dự đoán sự bùng phát của
thêm khẩu trang cho chúng. Phương pháp này COVID-19 trong tương lai. Nghiên cứu này tiếp
dễ hơn nhiều so với áp dụng các mốc trên khuôn cận theo phương pháp học sâu sử dụng mô hình
mặt. Các mốc trên khuôn mặt cho phép chúng ta MobileNetV2, một mô hình khá nhẹ, số lượng tham
tự động suy ra vị trí của các cấu trúc khuôn mặt, số ít, tốc độ tính toán nhanh và dễ triển khai ứng
bao gồm: Đôi mắt, lông mày, mũi, miệng, hàm. dụng real time trên các thiết bị di động hoặc thống
Dựa vào các mốc trên khuôn mặt để xây dựng bộ nhúng có khả năng tính toán thấp để tự động phát
dữ liệu khuôn mặt đeo khẩu trang. Ngoài ra, bộ dữ hiện cùng lúc nhiều người không đeo khẩu trang
liệu nhân tạo hình ảnh khuôn mặt đeo khẩu trang trên ảnh và video thời gian thực với bộ dữ liệu
không chứa các hình ảnh có thể khiến phân loại người đeo khẩu trang thực.
Begin
Load ảnh/video
Dự đoán
Có Không
Có khẩu trang
Thông báo with _mask Thông báo with _mask
Kết thúc Lưu hình ảnh, thời gian hiện tại
Hình 1. Sơ đồ thuật toán phát hiện khẩu trang
6 Tạp chí Nghiên cứu khoa học, Trường Đại học Sao Đỏ, ISSN 1859-4190, Số 3 (70) 2020
- LIÊN NGÀNH ĐIỆN - ĐIỆN TỬ - TỰ ĐỘNG HÓA
2. NỘI DUNG NGHIÊN CỨU 2.2. Tiền xử lý dữ liệu
2.1. Bài toán phát hiện khẩu trang Cơ sở dữ liệu hình ảnh thu thập tại Real World
Masked Face Dataset (RMFD) chứa 5.000 khuôn
Phát hiện đối tượng là để trả lời câu hỏi: “Đối tượng mặt đeo khẩu trang của 525 người và 90.000
cần tìm có ở trong ảnh hay video hay không?” và khuôn mặt bình thường, sau đó tiến hành tiền xử
“Nếu có thì nằm ở vị trí nào?” Trong bài toán phát lý để đưa vào mô hình huấn luyện [11]. Các bước
hiện người đeo khẩu trang cần trả lời câu hỏi người xử lý trước bao gồm thay đổi kích thước thành
trong ảnh/video có hay không đeo khẩu trang? Bài 224 × 224 pixel, chuyển đổi sang định dạng mảng,
toán phân loại này gồm hai bước là xây dựng mô chuyển kênh màu BGR sang RGB và chia tỷ lệ
hình và vận hành mô hình. Cho sẵn một tập dữ liệu cường độ pixel trong hình ảnh đầu vào thành phạm
vi [-1, 1]. Sau đó sử dụng scikit-learn One-Hot-
các khuôn mặt được gán nhãn là không đeo khẩu
Encoding để tạo nhãn lớp cho mỗi hình ảnh. Trong
trang hay có đeo khẩu trang gọi tắt là lớp không
chiến lược này, mỗi véc-tơ giá trị nhãn đầu ra được
khẩu trang và lớp có khẩu trang. Cần một phương chuyển đổi thành dạng mới, trong đó chỉ có 1 đầu
pháp huấn luyện để xây dựng một mô hình phân ra bằng “1” ứng với mã phân loại của véc-tơ đầu
lớp từ tập dữ liệu mẫu đó, sau đó dùng mô hình vào tương ứng còn các đầu ra khác đều bằng “0”.
này dự đoán lớp của những khuôn mặt mới chưa
Tập hình ảnh này gọi là tập huấn luyện. Trong
biết nhãn.
nghiên cứu này tác giả sử dụng 686 hình ảnh khuôn
mặt không đeo khẩu trang và 3.905 hình ảnh đeo
khẩu trang làm dữ liệu huấn luyện mô hình.
(a) (b)
Hình 2. (a) Mặt không có khẩu trang và (b) mặt có khẩu trang
(a) Mặt không có khẩu trang (c) Mặt có và không có khẩu trang
(b) Mặt có khẩu trang (d) Mặt nhầm lẫn là khẩu trang
Hình 3. (a), (b), (c), (d) Minh họa các ảnh trong bộ dữ liệu phát hiện khẩu trang
Tạp chí Nghiên cứu khoa học, Trường Đại học Sao Đỏ, ISSN 1859-4190, Số 3 (70) 2020 7
- NGHIÊN CỨU KHOA HỌC
2.3. Huấn luyện mô hình 2.4. Vận hành mô hình
CNN (Mạng nơron tích chập) có nhiều phiên bản Tải hình ảnh, video đầu vào sau đó phát hiện
của mạng được đào tạo trước và kiến trúc tốt như khuôn mặt trong ảnh. Áp dụng bộ phát hiện khẩu
AlexNet, ResNet, Inception, LeNet, MobileNet,… trang để phân loại khuôn mặt đeo khẩu trang (with_
Trong trường hợp này sử dụng MobileNetV2 là mô mask) hoặc là không đeo khẩu trang (without_
mask). Tiền xử lý được thực hiện là chuẩn hóa
hình hướng di động, nhẹ và hiệu quả do số lượng
kích thước và hoán đổi kênh màu. Để giảm nhiễu
tham số ít. MobileNetV2 xây dựng dựa trên các ý
cho ảnh do chiếu sáng cần chuyển ảnh sang dạng
tưởng từ MobileNetV1 [10], sử dụng tích chập có ảnh blob thông qua hàm blobFromImage của
thể phân tách theo chiều sâu với các đặc trưng mới OpenCV.
cho kiến trúc.
Trong bước này, chia dữ liệu thành tập huấn luyện Load ảnh/video cần kiểm tra
chứa các hình ảnh mà mô hình CNN sẽ được huấn
luyện và tập kiểm tra với các hình ảnh mà mô hình
sẽ kiểm tra. Cụ thể lấy split_size = 0.8, có nghĩa là Phát hiện mặt từ ảnh/video
80% tổng số hình ảnh cho huấn luyện và 20% còn
lại của hình ảnh cho kiểm tra một cách ngẫu nhiên.
Sau đó, xây dựng mô hình CNN với các lớp khác
Áp dụng mô hình để dự đoán
nhau như AveragePooling2D với trọng số 7×7,
Flatten, Dropout và Dense. Trong lớp Dense cuối
cùng, sử dụng hàm softmax để xuất ra một véc - tơ
thể hiện xác suất của mỗi lớp. Đưa ra kết quả dự đoán
Ảnh huấn luyện Hình 5. Vận hành mô hình
2.5. Phát hiện khẩu trang trên ảnh
Tiền xử lý ảnh Với mỗi hình ảnh trong bộ kiểm tra, cần tìm chỉ
mục của nhãn với xác suất dự đoán lớn nhất tương
ứng, đánh giá và lưu mô hình. Sơ đồ phát hiện
Trích chọn đặc trưng khẩu trang trên ảnh như trên hình 6.
2.6. Phát hiện khẩu trang trên ảnh
Huấn luyện mô hình Đối với vấn đề xác định người trong video/webcam
có đeo khẩu trang hay không cần xác định các
khuôn mặt trong webcam và phân loại khuôn mặt
đeo khẩu trang. Đầu tiên, lặp qua các frame từ
Lưu mô hình video và thay đổi kích thước để có chiều rộng tối đa
400 pixel, phát hiện khuôn mặt trong frame và xác
Hình 4. Huấn luyện mô hình định xem họ có đang đeo khẩu trang hay không?
Quy trình chi tiết được thể hiện trên hình 7.
Pooling theo Phẳng hóa ma trận
Ảnh nguồn MobileNetV2
giá trị trung bình thành véc - tơ
Hàm kích hoạt Dropout Kích hoạt phi tuyến
Kết quả Softmax 2 kênh ra p = 0,5 Relu 128 kênh ra
Hình 6. Sơ đồ phát hiện người đeo khẩu trang trên ảnh
8 Tạp chí Nghiên cứu khoa học, Trường Đại học Sao Đỏ, ISSN 1859-4190, Số 3 (70) 2020
- LIÊN NGÀNH ĐIỆN - ĐIỆN TỬ - TỰ ĐỘNG HÓA
Khởi tạo Trích xuất ảnh Load phát hiện
từ các frame Ảnh khuôn mặt
video khuôn mặt
Hiện thị Chuyển kết quả Load mô hình
kết quả vào frame MobileNetV2 Tiền xử lý ảnh
Hình 7. Sơ đồ phát hiện người đeo khẩu trang trên video/webcam
3. KẾT QUẢ NGHIÊN CỨU VÀ THẢO LUẬN - FN: Số lượng khuôn mặt đeo khẩu trang bị phân
loại nhầm là khuôn mặt không đeo khẩu trang.
Dữ liệu thực hiện huấn luyện được lấy tại Real
- TP: Số lượng khuôn mặt đeo khẩu trang được
World Masked Face Dataset với nhiều ánh sáng,
phân loại chính xác.
tư thế, sự che khuất khác nhau, một số khuôn mặt
được che bằng tay hoặc các vật thể khác thay vì - FP: Số lượng khuôn mặt không đeo khẩu trang bị
phân loại nhầm là khuôn mặt đeo khẩu trang.
khẩu trang thực. Dữ liệu bao gồm các mặt có khẩu
trang, mặt không có khẩu trang, mặt có và không Từ đó, độ chính xác của mô hình được tính theo
có khẩu trang trong một hình ảnh và hình ảnh nhầm công thức sau:
là khẩu trang nhưng thực tế thì không có. 𝑇𝑇𝑇𝑇 + 𝑇𝑇𝑇𝑇
𝐴𝐴𝐴𝐴𝐴𝐴𝐴𝐴𝐴𝐴𝐴𝐴𝐴𝐴𝐴𝐴 = (2)
Để đánh giá tập trọng số cần xác định lỗi cho cả 𝑇𝑇𝑇𝑇 + 𝐹𝐹𝑇𝑇 + 𝑇𝑇𝑇𝑇 + 𝐹𝐹𝑇𝑇
huấn luyện (loss) và kiểm tra (val_loss) ta sử dụng Đây là tỉ lệ của tất cả trường hợp phân loại đúng
hàm Cross Entropy là nhị phân chéo binary_cros- (không phân biệt negative/positive) trên toàn bộ
sentropy. Cụ thể, tính toán loss của mỗi trường trường hợp trong mẫu kiểm tra.
hợp bằng cách tính giá trị trung bình như sau:
Một độ đo cũng thường được dùng để đánh giá mô
1
" hình phân lớp đó là F-measure hay F-core được
( ) = − , . 0 𝑦𝑦! . log(𝑦𝑦4! ) + (1 − 𝑦𝑦! ). log (1 − 𝑦𝑦4!tính
𝑙𝑙𝑜𝑜𝑜𝑜𝑜𝑜(𝑦𝑦, 𝑦𝑦 )6 dựa trên 2 độ đo khác là precision và recall, và
𝑛𝑛
" !#$ (1) được tính như sau:
1
( ) = − , . 0 𝑦𝑦! . log(𝑦𝑦4! ) + (1 − 𝑦𝑦! ). log (1 − 𝑦𝑦4! )6
𝑦𝑦 𝑇𝑇𝑃𝑃
𝑛𝑛 𝑃𝑃𝑃𝑃𝑃𝑃𝑃𝑃𝑃𝑃𝑃𝑃𝑃𝑃𝑃𝑃𝑃𝑃 = (3)
!#$ 𝑇𝑇𝑃𝑃 + 𝐹𝐹𝑃𝑃
Với n là số lượng giá trị vô hướng trong đầu ra
của mô hình, hàm loss trả về một số thực không 𝑇𝑇𝑇𝑇
𝑅𝑅𝑅𝑅𝑅𝑅𝑅𝑅𝑅𝑅𝑅𝑅 = (4)
âm thể hiện sự chênh lệch giữa hai đại lượng yˆ là 𝑇𝑇𝑇𝑇 + 𝐹𝐹𝐹𝐹
xác suất nhãn được dự đoán và y là xác suất của 2 𝑇𝑇𝑃𝑃
nhãn đúng. Sau đó sử dụng thuật toán gradient 𝐹𝐹!"#$% = = (5)
1 1 𝐹𝐹𝐹𝐹 + 𝐹𝐹𝑃𝑃
descent “adam” (Adaptive Mô - ment Estimator) + 𝑇𝑇𝑃𝑃 +
𝑃𝑃𝑃𝑃𝑃𝑃𝑃𝑃𝑃𝑃𝑃𝑃𝑃𝑃𝑃𝑃𝑃𝑃 𝑅𝑅𝑃𝑃𝑃𝑃𝑅𝑅𝑅𝑅𝑅𝑅 2
để tối ưu [13].
Bảng 2. Đánh giá huấn luyện mô hình
Hơn nữa, để kiểm định hiệu năng của mô hình
phân loại, cần tính toán tỷ lệ chính xác trung bình Thời
loss acc val_loss val_acc
trên tất cả các dự đoán sử dụng thang đo ma trận gian (s)
nhầm lẫn như sau: 49 0,8343 0,6261 0,3932 0,8050
Bảng 1. Ma trận nhầm lẫn 50 0,4339 0,7987 0,2218 0,9300
53 0,2503 0,9007 0,1433 0,9450
Dự đoán là Dự đoán là
Positive Negative 52 0,1726 0,9490 0,1104 0,9550
Thực tế là Positve TP FN 52 0,1405 0,9582 0,0907 0,9700
Thực tế là Negative FP TN 59 0,1336 0,9490 0,0770 0,9800
57 0,0957 0,9752 0,0674 0,9800
Trong đó:
48 0,0802 0,9752 0,0595 0,9850
Các hàng của ma trận là nhãn lớp thực tế, các cột
của ma trận là nhãn lớp dự đoán. 49 0,0718 0,0718 0,0548 0,9850
46 0,0843 0,9673 0,0481 0,9800
- TN: Số lượng khuôn mặt không đeo khẩu trang
43 0,0728 0,9778 0,0428 0,9850
được phân loại chính xác.
Tạp chí Nghiên cứu khoa học, Trường Đại học Sao Đỏ, ISSN 1859-4190, Số 3 (70) 2020 9
- NGHIÊN CỨU KHOA HỌC
Thời Bảng 3. Đánh giá mô hình
loss acc val_loss val_acc
gian (s) Precision Recall Fscore
48 0,0507 0,9817 0,0399 0,9950 Có khẩu trang 0,97 1,00 0,98
60 0,0423 0,9869 0,0372 0,9900 Không khẩu trang 1,00 0,99 0,99
74 0,0555 0,9843 0,0373 0,9900 Trọng số trung bình 0,99 0,99 0,99
77 0,0420 0,9883 0,0333 0,9950
71 0,0406 0,9869 0,0307 0,9950
57 0,0383 0,9895 0,0331 0,9900
57 0,0407 0,9869 0,0286 0,9950
55 0,0324 0,9900 0,0290 0,9922
42 0,0322 0,9900 0,0297 0,9922
Tiến hành huấn luyện với tốc độ học 0.0001, sau
20 lần lặp với số số lượng mẫu (Batch_size) sử
dụng cho mỗi lần cập nhật trọng số là 32 ta thu
được kết quả (bảng 3). Như bảng 3 có thể thấy,
sau 20 lần lặp, mô hình đạt được độ chính xác Hình 8. Đồ thị độ chính xác và giá trị lỗi
khoảng 99% trên bộ thử nghiệm (bộ kiểm tra). Đây
Kết quả cài đặt phát hiện khẩu trang trên ảnh:
là một giá trị tương đối cao.
Hình 9. Kết quả phát hiện người đeo khẩu trang trên ảnh
Hình 10. Kết quả phát hiện người đeo khẩu trang trên webcam điều kiện ánh sáng tối khoảng cách 3 m
10 Tạp chí Nghiên cứu khoa học, Trường Đại học Sao Đỏ, ISSN 1859-4190, Số 3 (70) 2020
- LIÊN NGÀNH ĐIỆN - ĐIỆN TỬ - TỰ ĐỘNG HÓA
Hình 11. Kết quả phát hiện người đeo khẩu trang trên webcam điều kiện ánh sáng tối
Hình 12. Kết quả phát hiện người đeo khẩu trang trên webcam điều kiện ánh sáng trung bình
Hình 13. Kết quả phát hiện người đeo khẩu trang trên webcam điều kiện ánh sáng trung bình
Với những khuôn mặt không đeo khẩu trang, hệ những cơ sở thống kê dự đoán sự bùng phát trong
thống phát hiện và lưu dữ liệu ảnh là một trong tương lai.
Hình 14. Kết quả lưu người không đeo khẩu trang trên webcam
Tạp chí Nghiên cứu khoa học, Trường Đại học Sao Đỏ, ISSN 1859-4190, Số 3 (70) 2020 11
- NGHIÊN CỨU KHOA HỌC
4. KẾT LUẬN [5] https://towardsdatascience.com/covid-19-
Kết quả nghiên cứu cho thấy: Phát hiện người đeo face-mask-detection-using-tensorflow-and-
khẩu trang sử dụng mô hình học sâu MobileNetV2 opencv-702dd833515b.
có độ chính xác khá cao, số lượng tham số ít, giảm [6] https://www.ideas2it.com/blogs/face-
chi phí sản xuất các hệ thống phát hiện nếu triển m a s k- d et e c t o r- u s i n g - d e e p - l e a r n i n g -
pytorch-and-computer-vision-opencv/
khai trên các thiết bị nhúng, có thể phát hiện nhiều
khuôn mặt trên ảnh và video với bộ dữ liệu đeo [7] https://towardsdatascience.com/how-i-
built-a-face-mask-detector-for-covid-19-
khẩu trang thực tế. Hơn nữa, nghiên cứu cũng
using-pytorch-lightning-67eb3752fd61
thực hiện việc thu thập mặt không đeo khẩu trang
[8] h t t p s : / / w w w . p y i m a g e s e a r c h .
và lưu trữ vào thư mục máy chủ nhằm tạo dữ liệu
com/2020/05/04/covid-19-face-mask-
thống kê để dự đoán sự bùng phát của dịch bệnh detector-with-opencv-keras-tensorflow-
mà không cần xác định danh tính cá nhân của họ. and-deep-learning/
[9] https://vnexpress.net/dung-robot-de-phat-
hien-nguoi-khong-deo-khau-trang-4099618.
TÀI LIỆU THAM KHẢO html, đăng ngày 15/5/2020.
[10] A. G. Howard, M. Zhu, B. Chen, D.
[1] N. H. Leung, D. K. Chu, E. Y. Shiu, K.-H. Chan, Kalenichenko, W. Wang, T. Weyand, M.
J. J. Mc Devitt, B. J. Hau, H.-L. Yen, Y. Li, D. KM, Andreetto, and H. Adam (2017), Mobilenets:
J. Ip et al.(2020), Respiratory virus shedding in Efficient convolutional neural networks for
exhaled breath and efficacy of face masks. mobile vision applications, arXiv preprint
[2] S. Feng, C. Shen, N. Xia, W. Song, M. Fan, arXiv:1704.04861.
and B. J. Cowling (2020), Rational use of face [11] https://github.com/X-zhangyang/Real-
masks in the covid-19 pandemic, The Lancet World-Masked-Face-Dataset.
Respiratory Medicine. [12] h t t p s : // t o w a r d s d a t a s c i e n c e . c o m /
[3] https://vietnamese.cdc.gov/coronavirus/2019- categorical-encoding-using-label-encoding-
ncov/prevent-getting-sick/cloth-face-cover- and-one-hot-encoder-911ef77fb5bd.
guidance.html. [13] https://phantichdautu.com/2019/07/24/
[4] Z. Wang, G. Wang, B. Huang, Z. Xiong, Q. cac-thuat-toan-toi-uu-trong-tensorflow-
Hong, H. Wu, P. Yi, K. Jiang, N. Wang, Y. voi-cong-thuc/
Pei et al. (2020), Masked face recognition
dataset and application, arXiv preprint
arXiv:2003.09093.
THÔNG TIN TÁC GIẢ
Phạm Thị Hường
- Tóm tắt quá trình đào tạo, nghiên cứu (thời điểm tốt nghiệp và chương trình đào
tạo, nghiên cứu):
+ Năm 2004: Tốt nghiệp Đại học chuyên ngành Tin học, Trường Đại học Sư Phạm
Quy Nhơn.
+ Năm 2017: Tốt nghiệp Thạc sĩ ngành Công nghệ thông tin, Trường Đại học sư
phạm Hà Nội.
- Tóm tắt công việc hiện tại: Giảng viên bộ môn Công nghệ thông tin, Trường Đại
học Sao Đỏ.
- Lĩnh vực quan tâm: Tin học, toán học.
- Email: phamthihuongdtth@gmail.com.
- Điện thoại: 0972306806.
12 Tạp chí Nghiên cứu khoa học, Trường Đại học Sao Đỏ, ISSN 1859-4190, Số 3 (70) 2020
nguon tai.lieu . vn