Xem mẫu

  1. Hội nghị Quốc gia lần thứ 24 về Điện tử, Truyền thông và Công nghệ Thông tin (REV-ECIT2021) Hệ thống nhận dạng – giám sát phương tiện giao thông sử dụng thuật toán YOLOv4-tiny kết hợp Multiple Tracking và phát trực tuyến video trên giao thức RTMP Trần Ngọc Anh, Nguyễn Tiến Đạt, Trần Tấn Tài, Lê Đức Hùng Phòng thí nghiệm DESLAB, Khoa Điện tử - Viễn Thông, Trường Đại học Khoa học Tự nhiên – Đại học Quốc gia TP.HCM Email: ldhung@hcmus.edu.vn Abstract—Bài báo trình bày kết quả xây dựng và thực Hệ thống được triển khai trên một máy chủ quản lý tập trung thi hệ thống nhận dạng – giám sát phương tiện giao thông và các thiết bị cạnh (Edge Device) - NVIDIA Jetson TX1 theo thời gian thực sử dụng thuật toán YOLOv4-tiny kết Developer Kit, thiết bị này là một nền tảng phát triển sở hữu hợp Multiple Tracking và phát trực tuyến video trên giao đầy đủ tính năng dành cho “điện toán trực quan” (Visual thức RTMP. Hệ thống tận dụng những ưu điểm và nhược Computing), hỗ trợ thiết lập và triển khai các dự án dễ dàng. điểm của thuật toán YOLO và Multiple Tracking, để nhận Thiết bị sẽ thu thập dữ liệu hình ảnh liên tục thông qua dạng và định danh phương tiện giao thông. Ngoài ra hệ camera, từ đó hệ thống AI được triển khai trên thiết bị sẽ tự thống còn tích hợp thêm module Socket IO gửi dữ liệu về động nhận dạng phương tiện giao thông bao gồm dữ liệu hình phương tiện được nhận dạng đến máy chủ và phát trực ảnh và phân loại thành bốn nhóm phương tiện chính ở Việt Nam tuyến video dựa trên giao thức RTMP (độ trễ 1 – 3 giây so là xe máy (Motorbike), xe hơi (Car), xe tải (Truck), xe buýt với thực tế khi xem qua VLC media player và 5 -7 giây khi (Bus) dựa trên thuật toán YOLOv4 - tiny kết hợp với thuật toán xem trên giao diện Web), điều này giúp cho việc giám sát, Multiple Tracking. Sau khi nhận dạng và phân loại, thiết bị sẽ lưu trữ và truy cập thông tin trở nên dễ dàng hơn. Hệ thống tiến hành cắt hình ảnh của phương tiện từ khung hình tại thời được thực hiện trên bo NVIDIA Jetson TX1 và máy chủ điểm phương tiện được nhận dạng. Sau đó, thiết bị sẽ gửi hình SRS để demo quá trình thu thập dữ liệu đếm và nhận dạng ảnh video thu được máy chủ SRS được triển khai khai máy chủ các phương tiện giao thông trên một tuyến đường với tốc độ quản lý tập trung dựa trên giao thức RTMP. Ngoài ra, các dữ thực thi của hệ thông từ 14 – 18 fps và độ chính xác dao liệu đầu ra của hệ thống AI về phương tiện giao thông sẽ được động trong khoảng 60 – 95%, sau đó dữ liệu hình ảnh và gửi dến cơ sở dữ liệu tại máy chủ quản lý tập trung thông qua video được gửi đến máy chủ theo thời gian thực. SocketIO module theo thời gian thực. Keywords- YOLOv4-tiny, Multiple Tracking, RTMP, Sau khi máy chủ quản lý tập trung nhận các dữ liệu về hình Socket IO, Nhận dạng và theo dõi phương tiện giao thông, ảnh, video của phương tiện giao thông từ các thiết bị cạnh, dựa Artificial Intelligence of Things. vào DeviceID của từng thiết bị, máy chủ sẽ cung cấp đường dẫn I. GIỚI THIỆU RTMP URL, HLS URL và Restful API tương ứng với từng Trong những năm gần đây, các mô hình Aritifical thiết bị, khi đó quản trị viên có thể truy cập vào dữ liệu của thiết Intelligence of Things - AIoT đang trở thành xu hướng phát bị mong muốn. triển. Hệ thống được xây dựng nhằm mục đích giải quyết vấn Hệ thống cung cấp một trang Web hiển thị dữ liệu theo thời đề giám sát và kiểm soát lưu lượng phương tiện giao thông trên gian thực bao gồm hình ảnh, video và thông tin phương tiện các tuyến đường bộ trong thành phố. Bởi vì, quy trình giám sát được nhận dạng. Giám sát viên có thể truy cập vào để giám sát và kiểm soát lưu lượng phương tiện giao thông hiện tại dựa vào tuyến đường theo thiết bị tương ứng, ngoài ra trang Web còn số liệu thống kê từ các cán bộ giao thông thu thập được theo cung cấp các tính năng như truy cập lịch sử cơ sở dữ liệu, trang các phương pháp thủ công. Tuy nhiên, việc này đang tạo ra sự biểu đồ thống kê dữ liệu (biểu đồ cột và biểu đồ đường). lãng phí về thời gian, sức người đồng thời các số liệu thống kê II. HỆ THỐNG NHẬN DẠNG VÀ THEO DÕI có độ chính xác không cao và không có tính liên tục. Do đó, hệ PHƯƠNG TIỆN GIAO THÔNG thống giám sát có thể thay thế và giải quyết được một số vấn đề II.1. Thuật toán nhận dạng phương tiện giao thông tồn đọng được nêu trên. Hệ thống nhận dạng và theo dõi phương tiện giao thông sử dụng thuật toán nhận dạng phương tiện giao thông là YOLOv4- tiny dựa trên framework Darknet. YOLOv4-tiny - Darknet là một dự án mã nguồn mở mô tả thuật toán object detection được phát triển với mục tiêu phát hiện và phân loại vật thể trong thời gian thực thuật toán với thiết kế dựa trên YOLOv4, nhưng để làm cho cấu trúc mạng trở nên đơn giản hơn, nó sẽ giảm các thông số để cho mô hình có thể phù hợp khi triển khai và phát triển ứng dụng trên các thiết bi di động và hệ thống nhúng. Hình I-1: Mô hình hoạt động của hệ thống ISBN 978-604-80-5958-3 278
  2. Hội nghị Quốc gia lần thứ 24 về Điện tử, Truyền thông và Công nghệ Thông tin (REV-ECIT2021) độ sẽ bị hạn chế từ 14-18 fps tuỳ theo số phương tiện đang được theo dõi. III. QUÁ TRÌNH TRUYỀN TẢI VÀ XỬ LÝ DỮ LIỆU III.1. Truyền tải dữ liệu hình ảnh thông qua giao thức RTMP Thiết bị cạnh (Edge Device) thu nhận dữ liệu hình ảnh thông qua camera trên thiết bị, sau đó truyền tải dữ liệu này đến máy chủ SRS (SRS Server) thông qua giao thức RTMP. Đây là giao thức truyền tin theo thời gian thực dựa trên giao thức TCP, được thiết kế cho các quá trình truyền tải cần kết nối liên tục, độ trễ Hình II -1: Kiến trúc của YOLOv4-Tiny thấp và thiết bị có hiệu suất trung bình. Các gói tin truyền tải Kiến trúc mô hình YOLOv4-tiny bao gồm 3 phần chính là: trên giao thức này dựa trên RTMP Chunk Stream, các gói tin - Backbone: nơi trích xuất đăc tính của dữ liệu. được phân thành các đoạn nhỏ có định dạng, định danh, tải - Neck: trộn và kết hợp các tính năng, cải thiện nguồn trọng riêng. Quá trình truyền tải dữ liệu video dựa trên giao thức cung cấp dữ liệu cho bước phát hiện. RTMP bao gồm ba giai đoạn chính: Bắt tay (Handshake), kết - Head: phát hiện và phân loại các phương tiện theo kiểu nối (Connect), các yêu cầu dịch vụ (Service Command). mỏ neo bao gồm các bản đồ tính năng 13x13 và 26x26. - Kết quả mô hình nhận dạng được 4 phương tiện giao thông: xe máy, xe hơi, xe tải và xe buýt với tốc độ thực thi là 18 fps, độ chính xác dao động từ 60 – 95% cải thiện hơn so với tập dữ liệu đạo tạo của Darknet khoảng 20% với tỉ lệ khung hình 416*416. Mạng YOLO được đào tạo ở google colab và triển khai thực thi trên thiết bị phần cứng Jetson TX1 có khả năng nhận dạng 4 loại phương tiện giao thông phổ biến ở đường phố Việt Nam: xe máy, xe ô tô, xe bus và xe tải. II.2. Thuật toán theo dõi phương tiện giao thông Hệ thống nhận dạng và theo dõi phương tiện giao thông sử dụng thuật toán theo dõi phương tiện giao thông là Multiple Tracking và Single Tracking - “MedianFlow Tracker” dựa trên mã nguồn mở OpenCV, nhằm mục đích cải thiện và khắc phục mạng YOLO tránh các trường hợp phát hiện thất bại khi phương tiện di chuyển với tốc độ cao. Hình III -1:Quá trình giao tiếp trên giao thức RTMP Máy chủ (Server) và máy khách (Client) sau khi thiết lập kết nối TCP sẽ tiến hành tạo kết nối theo giao thức RTMP như Hình III -1: Máy khách: • Complex Handshake: Quá trình bắt tay được thực hiện khi client và server thiết lập kết nối TCP thành công. Hai máy sẽ trao đổi với nhau hai gói tin là C0, C1. Các gói tin này sẽ xác định phiên bản của giao thức RTMP sẽ sử dụng, tạo các thông tin xác thực kết nối giữa hai máy, xác nhận điểm đầu và điểm cuối trên kết nối của hai máy.  Connect: Sau khi bắt tay thành công, máy khách sẽ gửi gói tin “connect” để yêu cầu các thiết lập về băng thông, Hình II-2: Thuật toán theo dõi đối tượng kết hợp YOLOv4-Tiny kích thước cửa sổ dữ liệu, ứng dụng và các công cụ hỗ Cải thiện hai trong năm bước (theo Hình II-2) để kết hợp trợ phù hợp. hai thuật toán với nhau:  Publish: Tại thiết bị cạnh (Edge Device) sẽ gửi lệnh này - Thứ nhất khởi tạo các điểm vào lưới: dựa trên giá trị đến máy chủ để công khai dữ liệu video theo đường dẫn đầu ra của mạng YOLO. là Stream Name trên máy chủ. Các dữ liệu video trước - Thứ hai cập nhật bouding box: dựa trên giá trị đầu ra khi gửi được mã hóa thông qua FFMPEG. của mạng YOLO và kết quả của thuật toán theo dõi –  Play: Máy khách có thể truy cập vào RTMP URL, khi ưu tiên kết quả của mạng YOLO. Việc phân xử và kết đó lệnh sẽ được gửi đến máy chủ để nhận các dữ liệu hợp sẽ thông qua bài toán khoảng cách giữa 2 vector phát trực tuyến trên kênh có Stream Name tương ứng. trong không gian hai chiều kết hợp các kỹ thuật xử lý Máy chủ: mảng trong lập trình.  Response Handshake: Khi nhận được gói tin bắt tay của - Kết quả cho thấy các trường hợp phát hiện thất bại của máy khách là C0 và C1. Máy chủ sẽ phản hồi thông qua mạng YOLO sẽ được khắc phục, phương tiện sẽ được gói S0 và S1 để xác thực các yêu cầu máy khách đã gửi. truy vết khi xuất hiện trong khung hình – đảm bảo tính Khi đó máy chủ sẽ xác nhận bắt tay thanh công, tiến tin cậy cho các tính năng của hệ thống. Bên cạnh đó tốc hành tạo kết nối với máy khách. ISBN 978-604-80-5958-3 279
  3. Hội nghị Quốc gia lần thứ 24 về Điện tử, Truyền thông và Công nghệ Thông tin (REV-ECIT2021)  Response Connect: Máy chủ sau khi nhận được gói tin  Xử lý dữ liệu đầu vào: dữ liệu đầu vào là một video “connect” từ máy khách, nếu các yêu cầu của máy bất kỳ, sau khi qua phân luồng xử lý video sẽ được khách được chấp thuận, máy chủ sẽ gửi phản hồi và tiến thay đổi kích thước và thông số của video để tăng hiệu hành thiết lập các thông số yêu cầu để chuẩn bị nhận quả cho việc xử lý AI. các lệnh và dữ liệu từ máy khách.  Phát hiện - phân loại phương tiện: phân luồng sẽ IV. LƯU ĐỒ THUẬT TOÁN. nhận dữ liệu video đã được chuyển đổi từ phân luồng IV.1. Sơ đồ hoạt động tại thiết bị “Xử lý dữ liệu đầu vào” để tiến hành tính toán phát Tại thiết bị cạnh, hình ảnh video được ghi lại từ camera sẽ là dữ liệu đầu vào cho thiết bị. Sau khi thông qua hệ thống AI hiện và phân loại phương tiện có trong mỗi khung hình. xử lý, sẽ cho ra dữ liệu đầu ra bao gồm hình ảnh video có các  Theo dõi – đếm phương tiện: phân luồng sẽ nhận dữ khung cửa sổ nhận dạng phương tiện và dữ liêu về phương tiện liệu video đã được chuyển đổi từ phân luồng “Xử lý vừa nhận dạng được. dữ liệu đầu vào” và dữ liệu bao gồm vị trí, tên, độ chính xác của phương tiện từ phân luồng “Phát hiện - phân loại phương tiện” để tiến hành theo dõi gán ID và chụp lại hình ảnh phương tiện, việc kết hợp 2 luồng với nhau sẽ tránh được tình trạng phát hiện vật thể thất bại ở phần luồng “Xử lý dữ liệu đầu vào”. Sau đó gửi dữ liệu thông tin của phương tiện và video sau khi theo dõi lên máy chủ. Cuối cùng nó sẽ tiến hành phát video ở dưới thiết bị local.  Gửi dữ liệu video trực tiếp đến máy chủ: phân luồng nhận dữ liệu video sau khi được theo dõi từ phân luồng “Theo dõi – đếm phương tiện” để tiến hành gửi dữ liệu video lên máy chủ. Với nhiều thiết bị cùng hoạt động một thời điểm, dựa vào RTMP URL tương ứng với từng deviceID của thiết bị máy chủ SRS sẽ tạo một luồng truyền dữ liệu riêng và có Stream Name dựa trên deivceID.  Gửi dữ liệu thông tin đến máy chủ: phân luồng nhận dữ liệu bao gồm ID, nhãn và hình ảnh vật thể sau khi được theo dõi từ phân luồng “Theo dõi – đếm phương tiện” để tiến hành gửi dữ liệu lên máy chủ thông qua SocketIO module, giúp người dùng có thể quan sát trực tiếp thông tin trên website, ngoài ra các dữ liệu sẽ được lưu trữ tại cơ sở dữ liệu trên máy chủ. IV.2. Sơ đồ giao tiếp giữa thiết bị và máy chủ. Các thiết bị cạnh và máy chủ giao tiếp với nhau để truyền tải dữ liệu đầu ra từ hệ thống AI trên thiết bị. Đối với hình ảnh video, thiết bị sẽ gửi dựa vào Streaming URL (RTMP URL), mỗi thiết bị sẽ được cấp một đường dẫn theo deviceID riêng biệt. Hình IV-1: Lưu đồ hoạt động tại thiết bị Hình IV-2: Quá trình kết nối và truyền hình ảnh video Quá trình hoạt động tại thiết bị bao gồm năm công việc Quá trình này bắt đầu bằng việc xác thực kết nối giữa thiết chính: bị cạnh và máy chủ thông qua Streaming URL (RTMP URL). Sau khi thiết lập kết nối thành công, thiết bị cạnh sẽ gửi dữ liệu ISBN 978-604-80-5958-3 280
  4. Hội nghị Quốc gia lần thứ 24 về Điện tử, Truyền thông và Công nghệ Thông tin (REV-ECIT2021) đã được mã hóa bằng FFMPEG module (tỉ lệ khung hình 480x360) với tốc độ gửi 20 – 33 khung hình/ giây. Tại trình duyệt Web, sau khi thiết lập kết nối giữa Web và máy chủ thông qua Streaming URL, ở đây trình duyệt Web sẽ dùng HLS URL vì Adode Flash Player dùng phát hình ảnh video theo RTMP URL trên Web không còn được hỗ trợ nữa. Tại Web độ trễ so với thời gian thực là 5 – 7 giây. Bên cạnh đó, thiết bị gửi dữ liệu về phương tiện giao thông bao gồm định danh, loại phương tiền, hình ảnh của phương tiện, mốc thời gian nhận dạng được phương tiện đến máy chủ thông qua SocketIO module. Hình IV-1: Kết quả đánh giá mô hình Quá trình đào tạo mô hình YOLOv4-tiny được đào tạo bằng Google Colab và được đánh giá validation và train, dựa vào cách các tập dataset uy tín hiện nay (PascalVOC, MS COCO) thường sử dụng để đánh giá: Validation mAP đường màu đỏ: thể hiện độ chính xác trung bình của các vật thể là 68%. Training Loss đường màu xanh: độ sai lệch của dữ liệu đào tạo càng tiến về 0 dữ liệu càng tốt ở mô hình thì kết quả thu được là 0,6021. Cho ra độ chính xác trung bình là 68% cải thiện so với mô hình do Darknet đào tạo là khoảng 28%. Mô hình kết hợp hai thuật toán đã khắc phục được điểm yếu nhận dạng thất bại của các mô hình thuật toán khác và có kết quả như bảng bên dưới. Hình IV-3: Quá trình truyền dữ liệu về phương tiện Bảng V-2: So sánh hiệu suất với các phương pháp khác Mô hình Room và Emitting event là hai công cụ chính được Thuật toán Tốc độ khung Khắc phục nhận dùng trong quá trình này. Room (phòng) là một kênh hình dạng thất bại truyền/nhận dữ liệu riêng biệt do SocketIO module cung cấp. Mỗi Room sẽ có một Room Name (tên phòng) được máy chủ YOLOv4-tiny + 14 – 18 Có cung cấp dựa trên deviceID của thiết bị, các client chung một Multiple Tracking + Room có thể truyền/nhận dữ liệu theo thời gian thực. Emitting Streaming event là khi có một SocketIO Client gửi sự kiện đến SocketIO YOLOv4-tiny 17 – 20 Không Server, sau đó máy chủ sẽ tiến hành xử lý các sự kiện đã được YOLOv3-tiny 9 – 10 Không đăng ký từ trước. Để tham gia vào Room, thiết bị cần gửi yêu SSD 8 Không cầu đến máy chủ thông qua sự kiện “join”. Khi xác thực thông Faster R-CNN 2–3 Không tin về Room Name và deviceID của thiết bị hợp lệ, máy chủ sẽ Mô hình YOLOv4-tiny với tập dữ liệu đào tạo tập trung ở cho phép thiết bị vào phòng. Sau đó, thiết bị sẽ gửi dữ liệu về phía đầu trước của phương tiện giao thông cho ra kết quả nhận phương tiện qua sự kiện “message” và đính kèm một gói dữ dạng các phương tiện giao thông ở cự ly gần tốt với độ chính liệu bao gồm định danh phương tiện, loại phương tiện, hình ảnh xác cao tuy nhiên đối với một số mẫu xe tải còn chưa cao vì dữ phương tiện, mốc thời gian nhận dạng được phương tiện. Gói liệu đào tạo về xe tải chưa đủ để khái quát hoá. dữ liệu này khi đến máy chủ sẽ được lưu trữ tại cơ sở dữ liệu. V. KẾT QUẢ Hệ thống nhận dạng - giám sát phương tiện giao thông được thực hiện trên bo Jetson TX1 của hãng NVIDIA. Trên bo mạch này có chứa GPU - Maxwell ™ với 256 lõi CUDA mang lại hiệu suất hơn 1 TeraFLOP. Tập dữ liệu được kết hợp từ những tập data có sẵn (khoảng 900 hình mặt trước của phương tiện) và dữ liệu thực tế tự thu thập (khoảng 300 hình mặt trước của phương tiện). Kết quả thu được từ huấn luyện và thực tế như bảng bên dưới. Bảng V-1: Kết quả đo từ các loại phương tiện. Loại phương tiện Kết quả huấn Kết quả thực tế luyện Xe máy 51.41% 50 - 93% Xe hơi 73.16% 60 – 96% Xe buýt 71.06% 58 – 96% Xe tải 73.45% 50 – 96% Hình V-2: Nhận dạng và phân loại phương tiện giao thông ở Việt Nam ISBN 978-604-80-5958-3 281
  5. Hội nghị Quốc gia lần thứ 24 về Điện tử, Truyền thông và Công nghệ Thông tin (REV-ECIT2021) Mô hình YOLOv4-tiny kết hợp Multiple Tracking cho ra kết quả thực tế ở một tuyến đường tại thành phố Biên Hoà, tốc độ trung bình của hệ thống khi thực thi giao động từ 14-18 FPS, tuỳ vào số lượng vật thể xuất hiện trong khung hình giới hạn (màu cam là khung hình giới hạn khu vực theo dõi phương tiện để có thể tối ưu tốc độ của hệ thống). Hình V-5: Hình ảnh video được xem trực tuyến tại trang Web Hình V-3: Kết quả thực tế thu được. Thiết bị phần cứng sẽ truyền 10 – 11 frame ở mỗi lần truyền, tốc độ bitrate ≈ 1500kbits/s. Tốc độ fps của video tại máy chủ sẽ nhận được là fps = 21. Hình V-6: Hình ảnh nhận dạng phương tiện giao thông được xem tại Web theo thời gian thực Hình V-4: Kết quả truyền hình ảnh trực tuyến. Hình V-7: Số lượng phương tiện được nhận dạng – biểu Dữ liệu thông tin về phương tiện giao thông được thu thập đồ cột ở phần cứng gửi lên máy chủ và hiển thị trên Web được trình bày trong các hình V-5, V-6, V-7, V-8:  Hình V-5: Dữ liệu video được thu thập từ camera sau khi qua hệ thống nhận dạng và theo dõi. Kết quả thu được sẽ được phát trực tiếp lên máy chủ hiện thị trên Web với độ trễ giao động từ 5-7s.  Hình V-6: Dữ liệu hình ảnh các phương tiện giao thông được nhận dạng và cắt. Kết quả thu được sẽ được gửi lên máy chủ và hiện thị trên Web với tốc độ thời gian thực.  Hình V-7, V-8: Biểu đồ thống kê thông tin và dữ liệu của các phương tiện trên một tuyến đường theo ngày, tháng và năm mục đích giúp cho các cơ quan chức năng hay các đơn vị có thẩm quyền có thể quan sát số Hình V-8: Số lượng phương tiện được nhận dạng – biểu liệu và đưa ra những quyết định hợp lý về xây dựng cơ đồ đường sở hạ tầng, … ISBN 978-604-80-5958-3 282
  6. Hội nghị Quốc gia lần thứ 24 về Điện tử, Truyền thông và Công nghệ Thông tin (REV-ECIT2021) VI. KẾT LUẬN Nghiên cứu đã hoàn thành việc xây dựng hệ thống AI, máy chủ, cơ sở dữ liệu và giao diện Web, sau đó đã tiến hành chạy demo hệ thống dựa trên các video hình ảnh giao thông từ các nền tảng chia sẻ video và video được thu thông qua điện thoại thông minh. Kết quả thu được đạt được các mục tiêu cơ bản đề ra cho đề tài nghiên cứu. Tuy nhiên, hệ thống chưa đạt được tính bảo mật thông tin cao trong quá trình truyền nhận dữ liệu, hệ thống AI vẫn tồn tại những trường hợp nhận dạng sai lệch so với thực tế. Mục tiêu tiếp theo của nghiên cứu là phát triển hệ thống AI hoàn chỉnh hơn, ứng dụng tính năng đo tốc độ di chuyển của phương tiện giao thông, đồng thời tăng tính bảo mật cho thiết bị cũng như các dữ liệu trong qua trình truyền tải dữ liệu. Kết quả nghiên cứu có thể ứng dụng vào Thành phố thông minh theo cuộc Cách mạng công nghiệp 4.0. TÀI LIỆU THAM KHẢO [1] Nguyễn Thanh Tuấn, “Deep Learning Cơ bản (Tái bản lần thứ 2)”, trang 1-225, tháng 8 năm 2020. [2] Rachel Roumeliotis, Nicole Tache, “Kristen Brown.Hands-On Machine Learning with Scikit-Learn, Keras, and TensorFlow”; pp. 130-657, September 2019. [3] Alexey Bochkovskiy, Chien-Yao Wang, Hong-Yuan Mark Liao. “YOLOv4: Optimal Speed and Accuracy of Object Detection”, Computer Vision and Pattern Recognition (cs.CV); Image and Video Processing (eess.IV), pp. 1-13, 23 Apr 2020. [4] Zdenek Kalal, Krystian Mikolajczyk, Jiri Matas. “Forward-Backward Error: Automatic Detection of Tracking Failures”, 2010 20th International Conference on Pattern Recognition, pp. 1-4, 23 August 2010. [5] Hardeep Singh Parmar, Michael C. Thornburgh. Adode’s Real Time Messaging Protocol – RTMP_Specification_1.0; December 2012. [6] Adobe Systems, Inc., "Action Message Format -- AMF 3”, January 2013. [7] Markus Eisenbach, Ronny Stricker, Daniel Seichter, Alexander Vorndran, Tim Wengefeld, and Horst-Michael Gross, “Speeding up Deep Neural Networks on the Jetson TX1”, pp. 8 – 9, 2017. [8] Sabir Hossain and Deok-jin Lee, “Deep Learning-Based Real-Time Multiple-Object Detection and Tracking from Aerial Imagery via a Flying Robot with GPU-Based Embedded Devices”, pp. 18, July 2019. ISBN 978-604-80-5958-3 283
nguon tai.lieu . vn