Xem mẫu
- TẠP CHÍ KHOA HỌC VÀ CÔNG NGHỆ, Trường Đại học Khoa học, ĐH Huế Tập 18, Số 1 (2021)
THEO DÕI ĐỐI TƯỢNG TRỰC QUAN TỪ DỮ LIỆU VIDEO
SỬ DỤNG HỌC TRỰC TUYẾN
Nguyễn Đăng Bình
Khoa Công nghệ Thông tin, Trường Đại học Khoa học, Đại học Huế
Email: ndbinh@husc.edu.vn
Ngày nhận bài: 10/8/2020; ngày hoàn thành phản biện: 17/8/2020; ngày duyệt đăng: 02/6/2021
TÓM TẮT
Theo dõi đối tượng trực quan từ dữ liệu video là một vấn đề rất được quan tâm
trong lĩnh vực thị giác máy tính. Trong bài báo này có 2 đóng góp chính:
(1) Sử dụng thêm một thuật toán học đối tượng trực quan đáng tin cậy cho quá
trình theo dõi; (2) Đề xuất một chiến lược hiệu quả cho việc khôi phục các vị trí đối
tượng theo dõi bị thất lạc hoặc bị sai vị trí phát hiện trở lại đúng vị trí đối tượng
xuất hiện. Ý tưởng của tôi là kết hợp việc ra quyết định của bộ phát hiện được
huấn luyện trước một cách chắc chắn với một bộ theo dõi trực tuyến. Điều này cho
phép tránh được sự thất lạc và mất dấu vết trong quá trình theo dõi đối tượng.
Trong các thực nghiệm dựa trên các bộ dữ liệu chuẩn cho một số ứng dụng cho
thấy hiệu năng cao bao gồm độ chính xác cao, tốc độ trực tuyến và tính hữu hiệu
của của phương pháp đề xuất.
Từ khóa: theo dõi đối tượng trực quan, học máy chủ động, học trực tuyến
Boosting.
1. MỞ ĐẦU
Theo dõi đối tượng trực quan đã và đang là một chủ đề đang được quan tâm
trong lĩnh vực thị giác máy tính. Tiềm năng ứng dụng của theo dõi đối tượng là rất lớn
như ứng dụng vào các hệ thống giám sát thông minh dựa trên hệ thống camera ở các
thành phố lớn, theo dõi giám sát giao thông, tương tác giữa người và máy. Một đích
của theo dõi đối tượng là tạo ra vết chuyển động theo thời gian các vị trí của đối tượng
xuất hiện liên tục trong chuỗi hình ảnh của tín hiệu video. Nhiệm vụ phát hiện đối
tượng và thiết lập sự tương ứng giữa đối tượng trên các khung hình ảnh liên tục.
Những khó khăn trong bài toán phát hiện đối tượng đó là sự gia tăng thay đổi diện
mạo xuất hiện, thay đổi môi trường nền ảnh, các đối tượng biến dạng, bị che khuất đối
tượng bởi các vật cản, camera theo dõi di chuyển, các đối tượng đột ngột xuất hiện và
đột ngột biến mất khỏi hình ảnh. Trong hai cách tiếp cận trong theo dõi đối tượng
được biểu diễn dựa trên hình dạng hoặc là mô hình diện mạo. Chẳng hạn, mô hình
7
- Theo dõi đối tượng trực quan từ dữ liệu video sử dụng học trực tuyến
diện mạo dựa trên quan sát [27], máy véc tơ tựa [11, 30], bộ lọc dựa vào nhân [37, 38],
mô hình hỗn hợp [28], mô hình nền và đối tượng [31], cập nhật mẫu [17] và suy diễn từ
biến đổi [39]. Những thuật toán này được xây dựng và được học từ đối tượng được xác
định theo dõi trong khung hình ảnh đầu tiên và dùng nó để theo dõi mà không có sự
đáp ứng thích nghi với các sự thay đổi của diện mạo đối tượng về cả hình dáng, bề mặt
xuất hiện và thay đổi ảnh sáng xung quanh trong điều kiện giả sử rằng tất cả các ảnh là
được thu nhận từ camera cố định. Đã có nhiều cách tiếp cận giải quyết vấn đề này [27,
33] và thích ứng với khả năng gia tăng việc thay đổi môi trường [15, 16, 17, 22, 2, 25, 34,
35]. Người ta có thể mô tả các phương pháp sử dụng các đặc trưng bất biến chống lại
sự biến đổi bằng các phương pháp thích nghi và các biểu diễn. Một số cách tiếp cận
khác [27, 34, 35] được cải thiện bằng cách cập nhật các không gian con biểu diễn xung
quanh đối tượng nhiều lên [35]. Hầu hết các thuật toán hiện có đều có thể theo dõi đối
tượng. Tuy nhiên, các thuật toán này thường không quan sát được chuyển động của
đối tượng hoặc có sự biến mất rồi xuất hiện lại làm mất dấu đáng kể sau một thời gian
chuyển động. Có những hạn chế trong xử lý trong thay đổi hình dạng của đối tượng,
trong lúc chuyển động nhanh, bị che khuất, hoặc vượt ra khỏi không gian quan sát,
chuyển động của camera và thay đổi ảnh sáng. Gần đây, có một xu hướng sử dụng kỹ
thuật thích nghi và học trực tuyến vào bài toán theo dõi đối tượng và xem bài toán theo
dõi đối tượng như là một bài toán phân lớp giữa đối tượng và nền ảnh với các cảnh
xung quanh [14, 16, 25], kỹ thuật này cho thấy sự hữu hiệu của bộ theo dõi đối tượng.
Các tác giả trong bài báo [14] nhấn mạnh tầm quan trọng của diện mạo của nền ảnh.
Bài báo đã đề xuất một phương pháp lựa chọn một cách thích nghi các đặt trưng màu
sắc giúp phân biệt tốt nhất đối tượng từ nền ảnh hiện tại. Hơn nữa, trong bài báo [2]
theo dõi thích nghi trực tuyến dựa trên bộ phân loại nhị phân lớp được đề xuất. Bộ
phân loại được thiết kế chỉ dùng vào việc phân biệt đối tượng hiện tại và nền ảnh xung
quanh đối tượng. Tuy nhiên chiến lược cập nhật đơn giản có thể đối mặt với việc trôi
hay thất lạc vị trí của đối tượng lúc đó vị trí theo dõi không còn đúng đối tượng nữa
mà nhảy sang các vị trí khác khắp mặt ảnh. Một số nghiên cứu gần đây liên quan đến
theo dõi trực quan đối tượng. Sử dụng mẫu cố định và kỹ thuật xử lý lược đồ quan học
cho việc ước tính chuyển động của đối tượng cần theo dõi [6]. Tăng cường tính hiệu
quả của các bộ theo dõi, Black và các tác giả [27] đề xuất thuật toán sử dụng huấn
luyện các eigen cơ bản dựa trên các biểu diễn quan sát. Một vài công trình công bố tiếp
cận phương pháp dự báo cho phân lớp có giám sát và hồi quy có giám sát, sau đó khai
thác giải quyết bài toán theo dõi đối tượng trực quan như Avian [11] dùng máy véc tơ
hỗ trợ. Công việc của Leptit [12] sử dụng cây ngẫu nhiên xem như bài toán phân lớp và
dùng đặc tính mạnh mẽ của cây ngẫu nhiên như là một phương pháp đối sánh mẫu
mạnh dùng cho phát hiện đối tượng. M. Ozuysal và cộng sự [13] dùng phương pháp
Ferns để phân lớp các mẫu. Hầu hết các phương pháp tiếp cận hiện có, các đối tượng
được theo dõi đều sử dụng bộ huấn luyện ngoại tuyến có trước. Việc theo dõi sẽ thất
bại nếu sự biến đổi diện mạo hay hình dáng của đối tượng không nằm trong tập mẫu
8
- TẠP CHÍ KHOA HỌC VÀ CÔNG NGHỆ, Trường Đại học Khoa học, ĐH Huế Tập 18, Số 1 (2021)
học đã huấn luyện trước đó. Để khác phục vẫn đề này, bộ theo dõi cần được thích ứng
với các biến đổi của đối tượng trên thực tế. Lim [15] trình bày một mô hình học trực
tuyến diện mạo của đối tượng mà dựa trên độ xấp xỉ. Các phương pháp theo dõi đối
tượng được đề xuất gần đây theo hướng dựa vào phương pháp học trực tuyến huấn
luyện một bộ phân loại dự báo. Tuy nhiên, hầu hết các cách tiếp cận đều đưa ra một
giả định đó là khởi tạo vị trí ban đầu của đối tượng cần theo dõi; Việc áp dụng bộ phân
loại trực tuyến cho việc phát hiện đối tượng ở khung hình hiện hành dẫn đến việc theo
dõi bị lỗi khi đối tượng biến mất hoặc bị che khuất, lúc này vị trí theo dõi bị sai. Trong
bài báo này, tác giả đề xuất một khung học máy trực tuyến để giải quyết vấn đề thất
lạc và mất dấu vết đối tượng trong quá trình theo dõi chuyển động từ dữ liệu video. Ý
tưởng chính là kết hợp quyết định phát hiện vị trí chính xác đối tượng trên khung hình
hiện tại đang hoạt động bởi một bộ phát hiện mạnh được huấn luyện trước đó bởi tập
mẫu sạch hợp lệ và một cơ chế theo dõi thích ứng trực tuyến. Bộ phân loại mạnh cho
phép xử lý các đối tượng trong môi trường phức tạp. Khung hệ thống cho phép khai
thác tính mạnh mẽ của bộ phân loại mạnh và bộ theo dõi nhằm xử lý tình huống thất
lạc và mất dấu vết đối tượng trong quá trình di chuyển một cách hiệu quả. Bài báo
được tổ chức như sau: sau phần giới thiệu là phần 2 giới thiệu phương pháp học trực
tuyến theo dõi đối tượng. Phần 3 là dành riêng cho các thực nghiệm và lượng hóa kết
quả và cuối cùng là kết luận và hướng phát triển của nghiên cứu.
2. PHƯƠNG PHÁP HỌC TRỰC TUYẾN CHO THEO DÕI ĐỐI TƯỢNG
Bộ phân loại được xem như một công cụ để xác định một vùng ảnh có đối
tượng hay không. Câu trả lời cho câu hỏi đó là: vùng ảnh này có đối tượng hoặc không
có đối tượng và cũng có thể là một giá trị cho biết xác suất hoặc độ tin cậy của quyết
định. Bộ phân loại có thể được xây dựng như sau: Cho trước một tập T gồm m mẫu để
huấn luyện T = x1 , y1 ,..., x m , x m với xi X là các mẫu vào và y i Y là các giá trị
kết quả để phân lớp, với Y = − 1,+1 trong trường hợp phân loại nhị phân, cho biết
rằng mẫu đầu vào xi thuộc về lớp A (yi = +1) hay thuộc lớp B (yi = −1) (hoặc trong
trường hợp của bài này là các đặc trưng có thuộc đối tượng hay không). Tìm một ánh
xạ tổng quát h : X → Y . Ánh xạ h này có thể được gọi là bộ phân loại. Mỗi phân lớp
mô tả một đặc trưng trong hình ảnh, do các bộ phân lớp phân biệt nên các mô tả đặc
trưng được học phân biệt và cho phép tích hợp thông tin hình nền và vì vậy có thể đơn
giản hóa bài toán theo dõi như vấn đề phân lớp giữa các đặc trưng trong hình ảnh hiện
tại. Trong phần này, tác giả trình bày một phương pháp học chủ động trực tuyến dựa
trên thuật toán học trực tuyến Boosting dùng cho huấn luyện một bộ phát hiện đối
tượng và kết hợp hợp tác với bộ theo dõi trong một khung hệ thống. Ý tưởng là khai
thác sự có sẵn của bộ phân lớp trong quá trình học để gán nhẵn một cách tự động và
gia tăng cải thiện hiệu năng các bộ phát hiện đối tượng. Điều này là một nỗ lực rất lớn
trong việc giảm việc đánh nhãn bằng tay vừa làm mất thời gian vừa làm chậm hệ
9
- Theo dõi đối tượng trực quan từ dữ liệu video sử dụng học trực tuyến
thống. Ngoài ra, tác giả sử dụng quy trình xác minh các vùng đối tượng được phát
hiện để gán nhẵn cho chính xác trước khi cập nhật vào hệ thống nhằm cải thiện bộ
phân loại hiện có. Vấn đề này được thực hiện bằng cách cho phép cập nhật lại dữ liệu
được quan sát trong quá trình học để ổn định bộ phát hiện. Trong phần tiếp theo, tác
giả trình bày thuật toán học máy trực tuyến Boosting mà hệ thống dựa vào để xây
dựng hệ thống. Sau đó là chiến lược và quy trình xác minh mẫu học.
2.1. Biểu diễn ảnh và các đặc trưng trong ảnh
Thay vì sử dụng các đặc trưng là các giá trị của các điểm ảnh như là đầu vào
của thuật toán học, sự biến đối bên trong của lớp có thể giảm đi. Mặc khác, các biến đổi
bên ngoài lớp có thể gia tăng. Trong nghiên cứu này, tác giả sử dụng một phương
pháp biểu diễn ảnh tích phân hữu hiệu dùng để biểu diễn và tính toán nhanh các đặc
trưng của đối tượng. Những đặc trưng như Haar Wavelet [3], lượt đồ biến đối đặc
trưng cục bộ [9] và đặc trưng bất biến đối với phép quay [10] được trích chọn và biểu
diễn cho các đối tượng theo dõi. Các đặc trưng này có thể được tính toán nhanh và rất
hiệu quả dựa trên ảnh tích phân là ảnh được biến đổi từ ảnh đầu vào qua phép biến
đối tích phân của ảnh. Điều này giúp cho việc đối sánh mẫu trong quá trình tìm kiếm
tham lam trong toàn ảnh và kết quả trả về là trực tuyến.
Hình 1. Đặc trưng cơ bản Haar-like features từ Viola and Jones[3], lượt đồ hướng chuyển động
và đặc trưng cục bộ bất biến với phép quay từ [9, 10].
2.2. Bộ phát hiện đối tượng dựa vào học trực tuyến Boosting
Về nguyên tắc, bất kỳ kỹ thuật toán học máy trực tuyến nào cũng có thể sử
dụng trong khung hệ thống theo dõi đối tượng của chúng tôi. Trong nghiên cứu này
chúng tôi sử dụng thuật toán học trực tuyến được đề xuất bởi Grabner và Bischof [1].
Các tác giả đã đề xuất được một thuật toán học trực tuyến cho bộ phân lớp có lựa chọn
đặc trưng phù hợp với từng mẫu so với nền ảnh. Học trực tuyến Boosting sử dụng các
bộ chọn và tiến hành học trực tuyến trên các bộ chọn này. Mỗi bộ phân loại yếu tương
ứng với một đặc trưng được trích chọn, thuật toán boosting trực tuyến lựa chọn đặc
trưng dựa vào các bộ chọn (selector) và thực hiện boosting trực tuyến trên các bộ chọn
này mà không trực tiếp thực hiện trên các bộ phân loại yếu. Mỗi bộ chọn h sel (x) nắm
giữ một tập gồm M bộ phân loại yếu {h1weak ( x),..., hMweak } và nó chọn một trong số các bộ
phân loại yếu đó h sel ( x) = hmweak ( x) , theo một tiêu chí tối ưu hóa dựa vào ước tính lỗi ei
10
- TẠP CHÍ KHOA HỌC VÀ CÔNG NGHỆ, Trường Đại học Khoa học, ĐH Huế Tập 18, Số 1 (2021)
của mỗi bộ phân loại yếu hiweak sao cho m = arg min i ei . Lưu ý rằng, bộ chọn này cũng
có thể được hiểu như một bộ phân loại yếu. Huấn luyện một bộ chọn tức là mỗi bộ
phân loại yếu được cập nhật và một bộ phân loại yếu tốt nhất (tức lỗi ước tính của nó
thấp nhất) sẽ được chọn. Tương tự như trong trường hợp ngoại tuyến, các bộ phân loại
yếu tương ứng với các đặc trưng, chẳng hạn như các giả thuyết được tạo ra từ các bộ
phân loại yếu dựa vào sự đáp ứng của các đặc trưng. Thuật toán huấn luyện trực tuyến
của Boosting sử dụng cho việc lựa chọn đặc trưng được thực hiện như sau: Đầu tiên,
cho một tập cố định gồm N bộ chọn, h1sel ,..., hNsel được khởi tạo ngẫu nhiên bằng các bộ
phân loại yếu, chẳng hạn là các đặc trưng. Khi một mẫu huấn luyện mới (x,y) đến, các
bộ chọn được cập nhật. Việc cập nhật này được thực hiện đối với trọng số quan trọng
của mẫu hiện tại. Bộ phân loại yếu có lỗi ước tính nhỏ nhất sẽ được chọn bằng bộ chọn.
wrong
m+ = arg min (en,m ) , trong đó en ,m = . Trọng số n và trọng số quan trọng
n ,m
m n ,m + corr
wrong
n ,m
của mẫu được cập nhật và chuyển đến cho bộ chọn tiếp theo hnsel+1 . Trọng số sẽ tăng
lên nếu mẫu bị phân loại sai bởi bộ chọn hiện tại (tức bộ phân loại đã được chọn) và
giảm xuống nếu ngược lại. Cuối cùng, một bộ phân loại mạnh được xây dựng bằng kết
N
hợp tuyến tính của N bộ chọn. Ta có h strong ( x) = sign
.h
n =1
n
sel
n ( x) . Một bộ phân loại
sẵn dùng tại mọi thời điểm và có thể được đánh giá trực tiếp, nó cung cấp cho người
sử dụng thông tin phản hồi tức thời tại bất kỳ giai đoạn nào của quá trình huấn luyện.
Hình 2. Sơ đồ thuật toán Boosting trực tuyến lựa chọn đặc trưng dùng cho theo dõi đối tượng
trực quan từ dữ liệu Video.
11
- Theo dõi đối tượng trực quan từ dữ liệu video sử dụng học trực tuyến
Thuật toán 1 - Boosting trực tuyến cho theo dõi đối tượng
Vào: - Mẫu huấn luyện x, y , y − 1,+1
- Bộ phân loại mạnh h strong (được khởi tạo ngẫu nhiên)
- Các trọng số corr
n ,m , n ,m
wrong
(được khởi tạo bằng 1)
- Khởi tạo độ quan trọng của trọng số λ = 1 cho tất cả các bộ chọn
N
Ra: Bộ phân loại h strong ( x) = sign
.h
n =1
n
sel
n ( x)
Phương pháp:
1. for n = 1,2,…,N do //cập nhật bộ chọn hnsel
2. for m = 1,2,…,M do //cập nhật mỗi bộ phân loại yếu
3. sel
h
n,m = update(h sel
n ,m x, y , ) ;
4. ,m ( x) = y then //ước lượng lỗi
if hnweak
5. corr
n ,m = n ,m + ;
corr
6. else
7. wrong
n ,m = wrong
n ,m +;
8. end if
wrong
9. en ,m = wrongn,m corr ;
n ,m + n ,m
10. end for
11. m+ = arg min (en,m ) ; //chọn bộ phân loại yếu có lỗi nhỏ nhất
m
12. en = en ,m+ ; hnsel = hnweak
,m + ;
1
13. if en = 0 or en then exit;
2
1 1 − en
14. n = . ln ; // tính trọng số
2 en
15. if hnsel ( x) = y then
1
16. = . ; //cập nhật độ quan trọng của trọng số
2(1 − en )
1
17. else = . ;
2en )
18. end for
2.3. Thuật toán học chủ động trực tuyến
Trong thuật toán học máy trực tuyến ở trên, quá trình huấn luyện được thực
hiện bằng cách gắn nhãn các vùng ảnh được xác định trên ảnh khung cảnh đưa vào hệ
thống và cập nhật các tham số cho mô hình huấn luyện. Những mẫu đươc gán nhãn có
12
- TẠP CHÍ KHOA HỌC VÀ CÔNG NGHỆ, Trường Đại học Khoa học, ĐH Huế Tập 18, Số 1 (2021)
thể chứa đối tượng cần theo dõi, cũng có thể không phải là đối tượng (vùng ảnh nền).
Điều này dẫn đến sự không chính xác khi đưa mẫu học vào hệ thống một cách tự
động, hệ thống tự học, có thể dẫn đến học sai. Để khắc phục điều này, một chiến lược
học chủ động được áp dụng. Ý tưởng là người giám sát hay hệ thống chỉ gán nhãn
những vùng đối tượng được phát nhưng không chứa đối tượng bên trong khi phân lớp
trên ảnh hiện tại để phát hiện có hay không đối tượng xuất hiện trong ảnh. Bộ phân
loại được lượng hóa và được cập nhật sau mỗi lần chọn vùng đối tượng xem như là
mẫu học được đưa vào tại thời điểm đó. Bằng cách tương tác trực tuyến, người giám
sát có thể dùng trực quan để chọn và gãn nhẵn cho mẫu có nhiều thông tin chứa đối
tượng hay không chứa đối tượng nhất từ các vùng ảnh đã được phát hiện sau khi phân
lớp. Mỗi lần cập nhật các tham số của mô hình học hiện tai được cập nhật theo. Điều
này dẫn đến giảm thiểu lỗi phát hiện đối tượng ở những khung hình ảnh tiếp theo từ
chuỗi dữ liệu video. Cách này cũng giúp tránh gán nhãn những vùng ảnh không liên
quan đến thông tin của đối tượng và giúp giám rất lượng số lượng mẫu học đưa vào
huấn luyện, tiết kiệm được nhiều công sức gán nhãn tạo mẫu dữ liệu học. Quá trình
học nhanh hội tụ và độ chính xác được tăng lên ở những hình ảnh học tiếp theo. Trong
bài báo này, để huấn luyện bộ phát hiện, tác giả đã thực hiện các bước để giảm đáng kể
việc nhãn bằng tay và nổ lực huấn luyện của hệ thống. Khung hệ thống học trực tuyến
được triển khai dựa trên thuật toán ở Phần 2. 2. Quá trình huấn luyện, hệ thống chỉ cần
một số ít mẫu dương, mẫu chứa đối tượng cần theo dõi. Các mẫu âm, mẫu không chứa
đối tượng theo dõi, được sinh ra một cách tự động bằng cách sử dụng kết quả sẵn có từ
việc phân lớp đối tượng theo dõi trên ảnh khung cảnh hiện tại thời điểm đó. Sau một
thời gian ngắn, bộ phân lớp được cải thiện hiệu năng về độ chính xác rõ rệt. Các vùng
ảnh được phát hiện như là đối tượng nhưng không chứa đối tượng, được cập nhật như
là mẫu âm cho bộ phân loại hiện hành. Việc cập nhật này chỉ tập trung vào các mẫu
khó. Chiến lược này làm giảm đáng kể độ phức tạp việc gán nhẵn mẫu dữ liệu và cho
phép huấn luyện nhanh hội tụ hơn.
Thủ tục sinh ra dữ liệu để huấn luyện được thể hiện ở bước 7-8. Tại mỗi cập
nhật Bộ phân loại, Bộ phân loại hiện hành được lượng hóa trên ảnh hiện tại. Kết quả
này là một số đối tượng được phát hiện, bao gồm đối tượng phát hiện đúng là mẫu
dương và đối tượng phát hiện sai và xem các đối tượng phát hiện sai này như là các
mẫu âm. Các mẫu âm này còn gọi là các mẫu khó học. Trong chiến lược học chủ động
được thể hiện ở bước 9-10. Sau một nhấp chuột (trực tuyến) tại mẫu đối tượng cần theo
dõi, bộ phân loại được cải thiện.
Bằng việc đánh giá Bộ phân loại hiện tại trên ảnh, các đối được phát hiện sẽ
được thu nhận. Những phát hiện này, trên dữ liệu huấn luyện, có thể được sử dụng
làm mẫu dương để cập nhật cho Bộ phân loại, mà người giám sát không cần phải chọn
những mẫu đó trực tiếp. Bên cạnh đó người giám sát có thể quyết định xem những
13
- Theo dõi đối tượng trực quan từ dữ liệu video sử dụng học trực tuyến
mẫu dương nào được cập nhật hay không. Vẫn đề này không cần thiết trong trường
hợp Bộ phân loại phát hiện tự động tốt.
Thuật toán 2 - Học chủ động dùng cho theo dõi đối tượng trực tuyến
Vào: Chuỗi các khung hình ảnh từ dữ liệu video hay camera
Ra: Bộ phân loại và chuỗi vị trí xuất hiện đối tượng
Phương pháp:
1. Khởi tạo các tham số cho Bộ phân loại;
2. While do
3. Gán nhãn cho vùng ảnh chứa đối tượng xem như mẫu dương;
4. Cập nhật các tham số cho Bộ phân loại; //Sử dụng Thuật toán 1
5. End While
6. While do
7. Phân lớp đối tượng trên ảnh hiện hành sử dụng Bộ phân loại;
8. Xác định các mẫu âm;
9. Cập nhật các mẫu âm cho Bộ phân loại; //Sử dụng Thuật toán 1
10. Lặp lại bước 2-4 trên ảnh mới cho các đối tượng phát hiện bị bỏ lỡ;
11. Cập nhật lại các mẫu quan sát được cho Bộ phân loại nếu cần thiết;
12. End While
Vì vậy hệ thống chỉ cần tập trung vào những mẫu khó học. Tóm lại Bộ phân
loại trực huấn luyện trực tuyến được sử dụng để tự động sinh ra tập mẫu huấn luyện
mà không cần phải chuẩn bị từ trước và việc cập nhật mẫu được tự động thực hiện mà
không cần có sự can thiệp hay giám sát của con người. Hệ thống hoàn toàn tự động.
3. THỰC NGHIỆM VÀ KẾT QUẢ
Nghiên cứu thực hiện các thực nghiệm dựa trên một số tập dữ liệu chuẩn và dữ
liệu video được ghi lại với nhiều độ phức tạp khác nhau nhằm mục đích đánh giá hiệu
năng của phương pháp về độ chính xác, tốc độ thực hiện và tính hữu hiệu của hệ
thống theo dõi đối tượng trực tuyến trong các ứng dụng khác nhau và các đối tượng
khác nhau trong thực tế hiện nay. Trong các thực nghiệm, bài báo cho thấy hệ thống có
những khả năng sau: Tự động phát hiện chính xác và khởi tạo vị trí của đối tượng theo
dõi. Có thể theo dõi các đối tượng phức tạp khác nhau. Phát hiện và theo dõi đối tượng
khi đối tượng biến mất rồi xuất hiện trở lại và phục hồi quá trình theo dõi đối tượng.
Đầu tiên, bài báo thực hiện một số thực nghiệm trên dữ liệu chuẩn được công khai
14
- TẠP CHÍ KHOA HỌC VÀ CÔNG NGHỆ, Trường Đại học Khoa học, ĐH Huế Tập 18, Số 1 (2021)
dùng cho các nghiên cứu rộng rãi và so sánh kết quả với nghiên cứu gần đây cho theo
dõi đối tượng [2, 26]. Tập dữ liệu được chọn từ [26]. Thứ hai là cho thấy tính mạnh của
hệ thống đề xuất trong bài báo với các đối tượng phức tạp khác nhau: đối tượng có thể
biến đổi thay đổi hình dạng, chẳng hạn như bàn tay di chuyển, camera ghi hình trong
khi di chuyển, đối tượng có màu sắc gần tương đồng với nền khung cảnh… Thứ là hệ
thống có thể theo dõi nhiều đôi tượng cùng lúc với nhiều Bộ theo dõi khác nhau. Các
tập dữ liệu khác được ghi lại bởi camera có độ phân giải thấp cũng được đánh giá như
là một thực tế được đánh giá. Hệ thống thự hiện với Bộ phân loại có 50 bộ chọn và 250
bộ phân loại yếu, thực hiện trên máy tính có cấu hình chuẩn tốc độ 2.66Ghz với 2Mbs
RAM. Sau đây, tác giả trình bày đánh giá một thực nghiệm của hệ thống trên các tập
dữ liệu.
3.1 Thực nghiệm 1
Được thực nghiệm trên chuỗi video được cung cấp bởi nghiên cứu cứu của Lim
và Ross [26]. Dữ liệu video ghi lại khung cảnh một người di chuyển từ trong bóng tối
ra dần khu vực có ánh sáng, trong quá trình di chuyển, khuôn mặt được thay đổi về
ánh sáng, góc quay, và nền ảnh thay đổi khác nhau.
Hình 3. Một số hình ảnh minh họa kết quả của thực nghiệm và so sánh kết quả nghiên cứu [26].
15
- Theo dõi đối tượng trực quan từ dữ liệu video sử dụng học trực tuyến
3.2 Thực nghiệm 2
Được thực nghiệm trên chuỗi video ghi lại khung cảnh môi trường thực tế trên
đường giao thông từ dữ liệu được cung cấp bởi nghiên cứu [26]. Hệ thống đề xuất theo
dõi ô tô chính xác trong khi kết quả nghiên cứu của nhóm tác giả [2] thì bị thất lạc dấu
vết sau một thời gian ngắn di chuyển (hình chữ nhật màu xanh).
Hình 4. Một số hình ảnh minh họa kết quả của thực nghiệmvà so sánh với nghiên cứu [26].
3.3 Thực nghiệm 3
Thực nghiệm theo dõi trên đối tượng có hình dáng thay đổi khi chuyển động
[24]. Kết quả cho thấy bàn tay là đối tượng được theo dõi di chuyển nhanh dần và thay
đổi hình dáng, camera di chuyển theo, điều kiện ánh sáng cũng thay đổi. Vùng hình
chữ nhật màu vàng là kết quả của hệ thống theo dõi của bài báo và hình viền màu
trắng là kết quả của nhóm nghiên cứu [2].
16
- TẠP CHÍ KHOA HỌC VÀ CÔNG NGHỆ, Trường Đại học Khoa học, ĐH Huế Tập 18, Số 1 (2021)
Hình 4. Một số hình ảnh minh họa kết quả của thực nghiệm thực tế và so sánh với kết quả
nghiên cứu [2].
4. KẾT LUẬN VÀ HƯỚNG PHÁT TRIỂN
Bài báo đã trình bày một phương pháp theo dõi đối tượng trực tuyến kết hợp
giữa một bộ phát hiện đối tượng mạnh và một Bộ theo dõi thích nghi trực tuyến. Hệ
thống được xây dựng và cài đặt có thể phát triển cho các ứng dụng thực tế với các đối
tượng khác nhau trong các ứng dụng thực tế. Các kết quả thực nghiệm đã cho thấy hệ
thống thu được hiệu năng tốt về các độ chính xác và tốc độ trực tuyến, có thể cài đặt
chạy trên hệ thống máy tính cấu hình thấp đến cấu hình mạnh. Hệ thống tự động phát
hiện tự động đối tượng và khởi tạo quá trình theo dõi một cách tự động và có thể phát
hiện đối tượng biến mất trong quá trình theo dõi, có thể khôi phục tiếp việc theo dõi
khi đối tượng xuất hiện trở lại trong chuỗi dữ liệu video. Các kết quả được thực
nghiệm trong các dữ liệu video môi trường thực với các độ phức tạp khác nhau và cho
thấy có tiềm năng phát triển các ứng dụng thực tế cả trong môi trường trong nhà và
ngoài trời. Trong hướng phát triển, tác giả có kế hoạch mở rộng nghiên cứu này cho hệ
thống giám sát thông minh. Với nhiều loại dữ liệu phức tạp hơn và môi trường phức
tạp trong thực tế.
TÀI LIỆU THAM KHẢO
[1] H. Grabner and H. Bischof. On-line boosting and vision. In Proceedings IEEE Conference
Computer Vision and Pattern Recognition, Vol. 1, pp. 260–267, 2006.
[2] H. Grabner, M. Grabner, H. Bischof. Real-time tracking via on-line boosting. In: Proc.
BMVC. Vol. 1, pp. 47–56, 2006
17
- Theo dõi đối tượng trực quan từ dữ liệu video sử dụng học trực tuyến
[3] P. Viola and M. Jones. Rapid object detection using a boosted cascade of simple features. In
Proceedings IEEE Conference Computer Vision and Pattern Recognition, volume I, pp. 511–
518, 2001.
[4] K. Okuma, A. Taleghani, D. Freitas, J. J. Little, and D. G. Lowe. A boosted particle filter:
Multitarget detection and tracking. In ECCV, 2004.
[5] O. Javed, S. Ali, and M. Shah. Online detection and classification of moving objects using
progressively improving detectors. In Proceedings CVPR, pp. 695–700, San Diego, CA,
USA, 2005.
[6] B. Lucas and T. Kanade, An iterative image registration technique with an application to
stereo vision. In Proceedings of International Joint Conference on Artificial Intelligence, pp.
674–679, 1981.
[7] M. Han, A. Sethi, W. Hua, and Y. Gong. A detection based multiple object tracking method.
In ICIP, 2004.
[8] R. Kaucic, A. G. A. Perera, G. Brooksby, J. Kaufhold, and A. Hoogs. A unified framework
for tracking through occlusions and across sensor gaps. In CVPR, 2005.
[9] N. Dalal and B. Triggs. Histograms of oriented gradients for human detection. In
Proceedings, CVPR, volume 1, pp. 886–893, San Diego, CA, USA, 2005.
[10] T. Ojala, M. Pietikainen, and T. Maenpaa, Multiresolution gray-scale and rotation invariant
texture classification with local binary patterns. Pattern Analysis and Machine Intelligence,
24(7), pp. 971–987, 2002.
[11] S. Avidan, Support vector tracking. IEEE Trans. PAMI 26, pp. 1064–1072, 2004
[12] V. Lepetit, P. Lagger, P. Fua. Randomized trees for real-time keypoint recognition. In: Proc.
CVPR. Volume 2., pp. 775–781, 2005
[13] M. Ozuysal, P. Fua, , V. Lepetit, Fast keypoint recognition in ten lines of code. In: CVPR.
(2007)
[14] R. Collins, Y. Liu, M. Leordeanu, Online selection of discriminative tracking features. IEEE
Trans. PAMI 27, pp. 1631–1643, 2005
[15] B. Han and L. Davis, On-line density-based appearance modeling for object tracking, in
Proc. ICCV, volume 2, pp. 1492–1499, 2005.
[16] S. Avidan. Emsemble tracking. In proc. CVPR, Vol. 2, pp. 494-501, 2005
[17] I. Matthews, T. Ishikawa, S. Baker, The template update problem. IEEE Trans. PAMI 26 , pp.
810 – 815, 2004
[18] M. Grabner, H. Grabner, H. Bischof, Learning features for tracking. In: Proc. CVPR. 2007
[19] F. Tang, S. Brennan, Q. Zhao, H. Tao, Co-tracking using semi-supervised support vector
machines, in Proc. ICCV, pp. 1–8, 2007
[20] T. Woodley, B. Stenger, R. Cipolla, Tracking using online feature selection and a local
generative model. In: Proc. BMVC, 2007
18
- TẠP CHÍ KHOA HỌC VÀ CÔNG NGHỆ, Trường Đại học Khoa học, ĐH Huế Tập 18, Số 1 (2021)
[21] Y. Li, H. Ai, T. Yamashita, S. Lao,M. Kawade, Tracking in low frame rate video: A cascade
particle filter with discriminative observers of different lifespans. In: Proc. CVPR., pp. 1–8,
2007
[22] A. D. Jepson, D. J. Fleet, and T.F. El-Maraghi. Robust online appearance models for visual
tracking. In Proc. CVPR, volume 1, pp. 415–422, 2001.
[23] J. Lim, D. Ross, R. Lin and M.Yang, Incremental learning for visual tracking, In Advances in
Neural Information Processing System 17, pp. 793-800, MIT Press, 2005
[24] M.Kolsch and M. Turk, “Fast 2D Hand Tracking with Flocks of Features and Multi-Cue
Intergration, ” IEEE Computer Society Conference on Computer Vision and Pattern
Recognition Workshop, pp. 158-166, 2004.
[25] J.Wang, X. Chen, and W. Gao, Online selecting discriminative tracking features using
particle filter, in Proc. CVPR, volume 2, pp. 1037–1042, 2005.
[26] D. Ross, J. Lim, R. Lin, M.H. Yang, Incremental Learning for Robust Visual Tracking, the
International Journal of Computer Vision, Special Issue: Learning for Vision, 2007.
[27] M. J. Black and A. D. Jepson, Eigentracking: Robust matching and tracking of articulated
objects using view based representation. In B. Buxton and R. Cipolla, editors, Proceedings
of the Fourth European Conference on Computer Vision, LNCS 1064, pp. 329–342. Springer
Verlag, 1996.
[28] M. J. Black, D. J. Fleet, and Y. Yacoob, A framework for modeling appearance change in
image sequence. In Proceedings of IEEE International Conference on Computer Vision, pp.
660–667, 1998.
[29] M. Isard and A. Blake. Contour tracking by stochastic propagation of conditional density. In
B. Buxton and R. Cipolla, editors, Proceedings of the Fourth European Conference on
Computer Vision, LNCS 1064, pp. 343–356. Springer Verlag, 1996.
[30] O. Williams, A. Blake, and R. Cipolla, A sparse probabilistic learning algorithms for real-
time tracking. In Proceedings of IEEE International Conference on Computer Vision,
volume 1, pp. 353–360, 2003.
[31] M. Harville, A framework for high-level feedback to adaptive, per-pixel mixture of
Gaussian background models. In A. Heyden, G. Sparr, M. Nielsen, and P. Johansen, editors,
Proceedings of the Seventh European Conference on Computer Vision, LNCS 2352, pages
531–542. Springer Verlag, 2002.
[32] G. Hager and P. Belhumeur, Real-time tracking of image regions with changes in geometry
and illumination. In Proceedings of IEEE Conference on Computer Vision and Pattern
Recognition, pages 403–410, 1996.
[33] D. Comaniciu, V. Ramesh, and P. Meer, Real-time tracking of non-rigid objects using mean
shift. In Proc. CVPR, volume 2, pp. 142–149, 2000.
[34] J. Ho, K. Lee, M. Yang, and D. Kriegman. Visual tracking using learned linear subspaces. In
Proc. CVPR, volume 1, pp. 782–789, 2004.
[35] D. Ross, J. Lim, and M. Yang. Adaptive proballistic visual tracking with incremental
subspace update. In Proc. ECCV, volume 2, pp. 470–482, 2004.
19
- Theo dõi đối tượng trực quan từ dữ liệu video sử dụng học trực tuyến
[36] J. Vermaak, P. Perez, M. Gangnet, and A. Blake. Towards improved observation models for
visual tracking: Selective adaption. In Proc. ECCV, pp. 645–660, 2002.
[37] D. Comaniciu, V. Ramesh, and P. Meer. Kernel-based object tracking. IEEE Transactions on
Pattern Analysis and Machine Intelligence, 25(5), pp. 564–577, 2003.
[38] B. Georgescu, D. Comaniciu, T. X. Han, and X. S. Zhou. Multi-model component-based
tracking using robust information fusion. In 2nd Workshop on Statistical Methods in Video
Processing, May 2004.
[39] J. Vermaak, N. Lawrence, and P. Perez. Variational inference for visual tracking. In
Proceedings of IEEE Conference on Computer Vision and Pattern Recognition, volume 1,
pages 773–780, 2003.
[40] S. Agarwal, A. Awan, and D. Roth. Learning to detect objects in images via a sparse, part-
based representation. Transactions on Pattern Analysis and Machine Intelligence, 26(11),
pages. 1475–1490, 2004.
20
- TẠP CHÍ KHOA HỌC VÀ CÔNG NGHỆ, Trường Đại học Khoa học, ĐH Huế Tập 18, Số 1 (2021)
VISUAL OBJECT TRACKING FROM VIDEO DATA USING ONLINE LEARNING
Nguyen Dang Binh
Faculty of Information Technology, University of Sciences, Hue University
Email: ndbinh@husc.edu.vn
ABSTRACT
Visual object tracking is an important problem in computer vision. The main
contributions are: (1) an efficient visual object learning algorithm based on online
boosting, which provides a reliable object detector for the tracking process; (2) a
robust strategy to deal with tracking failures and recovery of such failures. Our
idea is to incorporate decision given by the prior learned strong detector and an
on-line boosting tracker. This completely allows the prevention of the drifting
problem in tracking problem. Experiments based on challenging datasets for a
number of applications show high performance including high accuracy, on-line
speed and the effectiveness of the proposed method.
Keywords: visual object tracking, online learning.
Nguyễn Đăng Bình Sinh ngày 08/11/1974 tại Thừa Thiên Huế. Năm 1996,
ông tốt nghiệp Đại học ngành Toán - Tin tại Trường Đại học Sư phạm, Đại
học Huế. Ông nhận bằng thạc sỹ Công nghệ thông tin tại Trường Đại học
Bách Khoa Hà Nội năm 2022; nhận học vị Tiến sĩ ngành Công nghệ thông
tin tại Viện Công nghệ Kyushu, Nhật Bản, và hoàn thành nghiên cứu Sau
tiến sĩ tại Viện Thị giác và Đồ họa máy tính năm 2008 tại Đại học Công
nghệ Graz, Cộng hòa Áo. Hiện ông công tác tại khoa Công nghệ Thông
tin, Trường Đại học Khoa học, Đại học Huế.
Lĩnh vực nghiên cứu: Học máy, Thị giác máy tính, Nhận dạng và Xử lý ảnh
số.
21
- Theo dõi đối tượng trực quan từ dữ liệu video sử dụng học trực tuyến
22
nguon tai.lieu . vn