Xem mẫu

  1. Hội nghị Quốc gia lần thứ 24 về Điện tử, Truyền thông và Công nghệ Thông tin (REV-ECIT2021) Tự động nhận dạng điều chế dưới tác động của nhiễu pha-đinh đa đường sử dụng kỹ thuật học sâu Lê Hà Khánh1, Đoàn Văn Sáng2, Hoàng Văn Phúc1 và Đào Thị Thủy1 1 Viện Tích hợp hệ thống, Học viện Kỹ thuật Quân sự Số 236 Hoàng Quốc Việt, Quận Bắc Từ Liêm, Hà Nội 2Học viện Hải Quân, Nha Trang, Khánh Hòa Email: phuchv@mta.edu.vn Tóm tắt— Tự động phân loại điều chế tín hiệu (Automatic Gần đây, học sâu (DL: Deep learning) là một nhánh của Modulation Classification: AMC) đã được nghiên cứu trong máy học và đã đạt được thành công đáng kể vì khả năng hơn một phần tư thế kỷ. Tuy nhiên, việc thiết kế một bộ phân phân loại tuyệt vời của nó. DL đã được áp dụng trong nhiều loại hoạt động tốt trong môi trường nhiễu và các điều kiện lĩnh vực như phân loại hình ảnh, nhận dạng khuôn mặt, và xử khác nhau là rất khó khăn. Gần đây, các phương pháp học tập lý ngôn ngữ tự nhiên. Một số mạng DL điển hình như mạng sâu được áp dụng cho các hệ thống AMC và đạt được các kết nơ-ron tích chập (CNN: Convolutional Neural Network), quả cao trong việc cải thiện độ chính xác trong phân loại tín mạng dư (RNN: Residual Neural Network) hay mạng hiệu. Trong bài viết này, chúng tôi khảo sát các mô hình phân CLDNN (Convolutional Long Short-term Deep Neural loại ứng dụng các mạng nơ rơn tích chập để phân loại 26 dạng Network) đã được áp dụng trong AMC [1]. Độ chính xác tín hiệu điều chế dưới tác động của năm loại môi trường nhiễu pha-đinh khác nhau với SNR từ -20 dB đến +18 dB. Bài báo phân loại của các phương pháp dựa trên DL đã được chứng trình bày phương pháp nhận dạng tín hiệu dựa trên các mô minh là cao hơn các phương pháp phân loại khác, đặc biệt là hình mạng nơ ron tích chập và khảo sát độ chính xác khi nhận khi tỷ lệ tín hiệu trên nhiễu (SNR) thấp. dạng tín hiệu điều chế. Các kết quả mô phỏng cho độ chính xác Bảng I: Tập dữ liệu HisarMod2019.1 [2]. cao so với các mô hình phân loại tín hiện trong điều kiện tín hiệu chỉ chịu tác động của nhiễu tạp âm trắng. Một số mô hình Loại điều chế Các kiểu điều chế như ResNet, SqueezeNet cho độ chính xác cao hơn 97,5% cho AM-DSB SNR > +2 dB. AM-SC Keywords—Tự động phân loại điều chế, học sâu, mạng nơ AM-USB Analog ron tích chập (CNN). AM-LSB FM I. GIỚI THIỆU PM 2-FSK Tự động phân loại tín hiệu điều chế (AMC: Automatic 4-FSK Modulation Classification) là một quy trình để xác định sơ FSK 8-FSK đồ điều chế của tín hiệu vô tuyến. Đây là một bước trung gian giữa phát hiện tín hiệu và giải điều chế. Tuy nhiên, rất 16-FSK khó để thiết kế một bộ phân loại tín hiệu hoạt động tốt trong 4-PAM các điều kiện nhiễu khác nhau, đặc biệt là ảnh hưởng nhiễu PAM 8-PAM pha đinh đa đường. Các thuật toán AMC đã được nghiên cứu 16-PAM rộng rãi trong hơn 20 năm qua. Nhìn chung, các thuật toán BPSK AMC cổ điển có thể được chia thành hai loại: dựa trên tỷ lệ QPSK hợp lệ (LB: Likelihood-based) và dựa trên các đặc trưng (FB 8-PSK Feature based). Các phương thức LB dựa trên khả năng của PSK 16-PSK tín hiệu nhận được và các phương thức FB phụ thuộc vào 32-PSK thiết kế phân loại và phân loại các đặc trưng tín hiệu. Phương 64-PSK pháp phân loại điều chế LB là so sánh giá trị tỷ lệ khả năng của tín hiệu nhận được trong nhóm điều chế được xem xét. 4-QAM Nó cũng đã được sử dụng trong môi trường đa kênh để ước 8-QAM tính các tham số không xác định và cung cấp kết quả nổi bật 16-QAM để phân loại điều chế. Các phương thức LB cần biết được QAM 32-QAM các tham số kênh và tính toán trở nên phức tạp khi các tham 64-QAM số không xác định được. Mặc dù các phương thức LB có thể 128-QAM đạt được giải pháp tối ưu, nhưng chúng phải chịu sự phức tạp 256-QAM tính toán cao và yêu cầu thông tin trước từ các máy phát. Ngược lại, các phương thức FB có thể có được các giải pháp với mức độ độ phức tạp tính toán nhỏ hơn nhiều và không Trong bài báo này, chúng tôi sử dụng một tập dữ liệu phụ thuộc vào thông tin tiên nghiệm. Hiệu suất của các HisarMod2019.1 trong bài báo [2], bao gồm 26 dạng tín hiệu phương thức FB chủ yếu phụ thuộc vào bộ đặc trưng được điều chế thuộc 5 nhóm điều chế khác nhau và chịu ảnh trích xuất. Các đặc trưng này phải được thiết kế thủ công để hưởng của 5 loại nhiễu pha đinh với các điều kiện khác nhau. phù hợp với bộ điều chế và môi trường kênh tương ứng và có Bộ dữ liệu bao gồm 26 loại điều chế từ 5 nhóm điều chế thể không khả thi trong các điều kiện nhiễu khác. Hơn nữa, khác nhau là tín hiệu tương tự, tín hiệu điều tần FSK, điều việc tìm kiếm các đặc trưng hiệu quả đòi hỏi sự xem xét lớn chế xung biên độ PAM, điều chế pha PSK, và điều chế pha về mặt dữ liệu. cầu phương QAM. Tất cả các loại điều chế được liệt kê trong Bảng I. Tập dữ liệu công khai mới này cung cấp tín hiệu ISBN 978-604-80-5958-3 267
  2. Hội nghị Quốc gia lần thứ 24 về Điện tử, Truyền thông và Công nghệ Thông tin (REV-ECIT2021) không dây trong các điều kiện kênh lý tưởng, tĩnh, Rayleigh, vanishing gradient. Nhờ việc tổng hợp các đặc trưng giúp Rician (k = 3) và Nakagami-m (m = 2). Do đó, có thể quan giảm sự mất mát thông tin cùng với độ phức tạp tính toán. sát các điều kiện kênh thực tế hơn đối với các phương pháp AMC dựa trên DL được đề xuất. Trong bộ dữ liệu có 1500 Chúng tôi sử dụng cấu trúc mạng ResNet 18 làm mô hình tín hiệu có chiều dài 1024 mẫu I / Q đối với từng loại điều học sâu trong việc phân loại tín hiệu. Sau lớp tích chập đầu chế, tỷ lệ mức tín hiệu trên nhiễu (signal to noise ratio: SNR) tiên, phép gộp cực đại (max-pooling) được sử dụng để trích là từ -20 dB đến +18 dB, bước cách 2 dB. Tổng cộng, bộ dữ xuất các đặc trưng mức thấp, và sau lớp tích chập cuối cùng, liệu có 780.000 mẫu tín hiệu. Khi tạo tín hiệu, tốc độ việc lấy gộp trung bình để tất cả các đặc trưng được trích oversampling được chọn là 2 và sử dụng bộ lọc cosin nâng xuất đều quan trọng như nhau để ra quyết định. Hàm kích với hệ số roll-off = 0.35. hoạt ReLU (Rectified Linear Unit): r ( x ) = max ( 0, x ) được sử dụng để tăng quá trình huấn luyện. Sử dụng dropout với Trong bài viết trình bày và đánh giá những lợi thế và bất xác suất là 0,5 để tránh hiện tượng overfitting cho huấn luyện lợi các kỹ thuật sử dụng trong từng mô hình, rất cần thiết để dữ liệu. nghiên cứu trong tương lai về phân loại điều chế dựa trên DL. Nhóm tác giả thực hiện phân loại điều chế 26 tín hiệu vô Input xl −1 tuyến với các mô hình ứng dụng các mạng nơ rơn khác nhau, sử dụng tập dữ liệu HisarMod2019. Một số mô hình như ResNet, SqueezeNet cho độ chính xác cao hơn 97,5% cho SNR > +2 dB. Ngược lại một số mô hình khác như Shortcut path GoogleNet cho độ chính xác thấp, đạt cao nhất là 56,76% tại Weight Layer +18 dB. H ( xl −1 ) ReLu Cấu trúc bài báo được trình bày gồm 4 phần. Phần I là Weight Layer F ( xl −1 ) giới thiệu và mục tiêu nghiên cứu. Phần II trình bày chi tiết các mô hình cấu trúc mạng nơ ron ứng dụng cho phân loại ReLu điều chế tín hiệu. Các kết quả khảo sát phân loại tín hiệu, + tính khả thi của các mô hình kiến trúc mạng đề xuất được trình bày trong phần III. Cuối cùng là phần IV trình bày kết luận và hướng nghiên cứu tiếp theo của bài báo. Output xl II. CẤU TRÚC MẠNG HỌC SÂU Hình 1: Khối Residual [1]. Các nghiên cứu gần đây của mạng học sâu tập trung vào B. Mạng SqueezeNet việc cải thiện độ chính xác phân loại tín hiệu. Trong bài báo này, chúng tôi nghiên cứu hiệu suất phân loại điều chế tín Mạng SqueezeNet được đề xuất vào năm 2016 [5] với hiệu của các dạng cấu trúc mạng nơ ron khác nhau: mạng mục đích tìm kiếm cấu trúc mạng CNN với các tham số ít ResNet18, mạng MobileNet_V2, mạng GoogLeNet, mạng hơn, nhưng có độ chính xác tương đương với một số mô SqueezeNet, mạng Rep_VGG. hình nổi tiếng khác. Điều này cho phép giảm hàm lượng tính toán và tốc độ được cải thiện tương đối do số lượng A. Mạng ResNet18 tham số ít đi. Cấu trúc mạng SqueezeNet được mô tả như Khi mạng nơ ron phát triển sâu hơn, hiệu suất học tập của Hình 2, bắt đầu với một lớp tích chập, tiếp theo là 8 khối (từ nó bị thách thức do các vấn đề như vanishing gradient (mạng fire2- fire9) và cuối cùng là một khối tích chập. Số lượng bộ nơ ron bị vô hiệu) hay overfitting (mô hình quá phù hợp với lọc được tăng dần từ đầu mạng đến cuối mạng. SqueezeNet dữ liệu huấn luyện nhưng lại kém hiệu quả với dữ liệu chưa sử dụng phép gộp cực đại (max-pooling) với bước trượt biết). Do đó, việc huấn luyện và kiểm tra độ chính xác bắt (stride) bằng 2. Chúng ta có thể thấy ở Hình 2, các lớp đầu suy giảm khi mạng nơ ron đạt đến độ sâu nhất định. Việc "Squeeze" là các lớp tích chập được tạo thành từ các bộ lọc suy giảm kết quả độ chính xác kiểm tra do các vấn đề từ việc 1×1 và các lớp "mở rộng" này là các lớp tích chập với các tăng độ phức tạp của mạng nơ ron. Sự giảm chính xác từ quá bộ lọc 1×1 và 3×3. Bằng cách giảm số lượng bộ lọc trong trình huấn luyện do vanishing gradient làm cho quá trình tối lớp "squeeze" vào lớp "mở rộng", làm giảm số lượng kết nối ưu hoá kém khả thi hơn, dẫn đến khả năng hội tụ đến mức tối vào các bộ lọc 3×3 này, do đó làm giảm tổng số tham số. thiểu cho khả năng ước lượng giảm. Tác giả của mô hình SqueezeNet gọi kiến trúc cụ thể này là Cấu trúc mạng ResNet được đưa ra trong ImageNet và "mô-đun lửa" và nó đóng vai trò là khối xây dựng cơ bản COCO 2015 [3]. Nó đã giải quyết vấn đề suy giảm độ chính cho kiến trúc Squeezenet. xác của mạng nơ ron sâu và là một lựa chọn rộng rãi cho các nhiệm vụ học máy. Mô hình ResNet [1] và DenseNet [1, 4] C. Mạng MobileNet gần đây đã góp phần giải quyết các vấn đề trên bằng cách tạo Mạng MobileNet là một mô hình của nhóm tác giả đến các đường dẫn tắt giữa các lớp khác nhau trong mạng. Một khối xây dựng của mạng ResNet có thể được biểu thị bằng từ Google, cấu trúc mạng được đề xuất cho phép xây dựng một mạng nhỏ phù hợp với các điều kiện hạn chế về tài phương trình trong Hình 1, trong đó đầu vào là xl −1 , một nguyên (thời gian, kích thước) và được ứng dụng trên các hàm ánh xạ xl = H ( xl −1 ) được sử dụng cho hàm thiết bị nhỏ gọn có tài nguyên hạn chế [6]. MobileNet chủ F ( xl −1 ) = H ( xl −1 ) − xl −1 , hàm F ( xl −1 ) gọi là hàm dư. Cấu yếu tập trung vào việc tối ưu hóa độ trễ nhưng cũng tập trung cho các mạng nhỏ trong việc cải thiện tốc độ. Cấu trúc trúc thắt cổ chai của mạng ResNet giúp loại bỏ vấn đề độ phức tạp tính toán, và thành phần đường nối tắt giúp loại bỏ mạng MobileNet được xây dựng từ việc sử dụng cách tính tích chập có tên là Depthwise Separable Convolution (DSC) ISBN 978-604-80-5958-3 268
  3. Hội nghị Quốc gia lần thứ 24 về Điện tử, Truyền thông và Công nghệ Thông tin (REV-ECIT2021) để giảm kích thước mô hình và giảm độ phức tạp tính toán. Khối Inception bao gồm bốn nhánh song song với nhau. DSC được chia làm hai phần: tích chập theo chiều sâu (DC: Ba nhánh đầu sử dụng các tầng tích chập với kích thước cửa Depthwise Convolution) và tích chập theo điểm (PC: sổ trượt lần lượt là 1×1, 3×3, và 5×5 để trích xuất thông tin Pointwise Convolution) [6]. Sau mỗi lớp tích chập từ các vùng không gian có kích thước khác nhau. Hai nhánh MobileNet sẽ sử dụng hàm chuẩn hóa theo cụm (BN: Batch giữa thực hiện phép tích chập 1×1 trên dữ liệu đầu vào để Normalization) và hàm kích hoạt ReLu. giảm số kênh đầu vào, từ đó giảm độ phức tạp của mô hình. Nhánh thứ tư sử dụng một tầng gộp cực đại (max-pooling) Conv1 kích thước 3×3, theo sau là một tầng tích chập 1×1 để thay đổi số lượng kênh. Cả bốn nhánh sử dụng bộ lọc phù hợp để Maxpool/2 đầu vào và đầu ra của khối có cùng chiều cao và chiều rộng. Cuối cùng, các đầu ra của mỗi nhánh sẽ được nối lại theo fire2 chiều kênh để tạo thành đầu ra của cả khối. Các tham số thường được tinh chỉnh của khối Inception là số lượng kênh fire3 đầu ra mỗi tầng. Mô hình GoogleNet là tập hợp các khối Inception lại với nhau để tạo thành một mạng hoàn chỉnh. fire4 Ghép nối Maxpool/2 3x3 Conv 5x5 Conv 1x1 Conv fire5 1x1 Conv 3x3 1x1 Conv 1x1 Conv Maxpooling fire6 Đầu vào fire7 Hình 3: Cấu trúc khối Inception [7]. Maxpool/2 E. Mạng RepVGG Với các yêu cầu đòi hỏi ngày càng cao đối với học sâu, fire8 các mô hình mạng CNN được thiết kế ngày càng phức tạp hơn ResNet, Inception, MobileNet,… mang lại độ chính xác fire9 cao nhưng đồng thời cũng tồn tại những bất lợi. Sự phức tạp mô hình khiến việc xây dựng mô hình trở nên khó khăn hơn conv10 đồng thời cũng dẫn dến việc suy luận chậm hơn hay làm Hình 2: Khối SqueezeNet [5]. tăng việc chiếm tài nguyên hệ thống. Xuất phát từ mô hình mạng VGG [8] với kiến trúc đơn giản chỉ gồm các lớp tích Giả sử M là số lượng đầu vào của kênh, N là số lượng chập Conv, ReLu và pooling. Mô hình mạng RepVGG được đầu ra của kênh, Dk là kích thước bộ lọc (kernel), Df là kích cải tiến từ mạng VGG nhằm sở hữu cấu trúc mạng đơn giản thước của đặc trưng tín hiệu. mà vẫn đảm bảo hiệu quả [9]. Cấu trúc các khối RepVGG Khi đó, chi phí tính toán của DC là: như Hình 4. Dk  Dk  M  D f  D f (1) Stride = 2 3x3 1x1 3x3 Chi phí tính toán cho PC: Stride = 2 M  N  Df  Df (2) + Tổng chi phí tính toán của DSC là: Dk  Dk  M  D f  D f + M  N  D f  D f (3) 3x3 1x1 3x3 Nếu không sử dụng DSC mà chỉ sử dụng phép tính chập + bình thường thì chi phí tính toán là: Dk  Dk  M  N  D f  D f (4) Do đó, chi phí tính toán sẽ giảm: 3x3 1x1 3x3 Dk  Dk  M  D f  D f + M  N  D f  D f 1 1 + = + (5) Dk  Dk  M  N  D f  D f N D2k D. Mạng GoogLeNet 3x3 1x1 3x3 Mô hình mạng GoogleNet được đưa ra vào năm 2014 [7] + và giành được chiến thắng ở cuộc thi ImageNet. Mô hình tập trung vào việc giải quyết vấn đề kích thước nào của bộ lọc tích chập là tốt nhất, việc kết hợp các bộ lọc có kích (a) RepVGG tranning (b) RepVGG inference thước khác nhau đôi khi sẽ mang lại hiệu quả tốt. Khối tích Convolution ReLu Identity chập cơ bản trong mô hình GoogleNet được gọi là Inception Hình 4: Cấu trúc khối RepVGG [9]. như ở Hình 3. ISBN 978-604-80-5958-3 269
  4. Hội nghị Quốc gia lần thứ 24 về Điện tử, Truyền thông và Công nghệ Thông tin (REV-ECIT2021) Mô hình RepVGG được chia thành 5 phần, trong mỗi đó mô hình SqueezeNet cho kết quả phân loại cao nhất so phần sẽ gồm các khối tương tự nhau về cấu trúc. Các lớp với các mô hình khác (độ chính xác đạt được từ 97,5% cho đầu tiên trong các khối gồm các lớp Conv có bước trượt SNR > +8 dB). bằng 2 để thực hiện down-sampling. Khi xem xét với ma trận nhầm lẫn (confusion matrix) Trong khối training (Hình 4A), khi tín hiệu đầu vào cho hiệu suất phân loại 26 tín hiệu của các mô hình tại được truyền vào từng đoạn, tín hiệu sẽ được đi qua đồng SNR=10 dB được chỉ ra trong Hình 6 phân tích kỹ hơn. Từ thời 2 lớp Conv3x3 và Conv1x1 với bước trượt bằng 2, sau confusion matrix, có thể thấy một vài loại điều chế tín hiệu đó đầu ra của hai lớp này sẽ được cộng lại với nhau và đi mức thấp như AM, FM cho kết quả nhận dạng phân loại ít qua một lớp kích hoạt ReLU cuối cùng. Tín hiệu của khối bị nhầm lẫn, có độ chính xác trên 70% tại +10dB SNR và ít đầu tiên được tiếp tục sử dụng cho khối tiếp theo. Từ khối bị lỗi hơn. Với các tín hiệu điều chế mức cao như PSK, thứ hai trở đi, cấu trúc các khối là giống hệt nhau. Các khối QAM cho độ chính xác dưới 60% tại +10dB SNR. Có thể đều gồm ba nhánh: Conv3x3 với bước trượt bằng 1, thấy các tín hiệu điều chế mức cao mặc dù cho tốc độ truyền Conv1x1 với bước trượt bằng 1, nhánh Identity sử dụng BN. dẫn nhanh hơn, nhưng khi phân loại điều chế tín hiệu có Đầu ra của các nhánh cũng sẽ được cộng lại với nhau trước nhiều thay đổi khi tỷ lệ lỗi tăng, bởi thực tế sự phân bố khi đưa qua một lớp ReLU như trong Hình 4a. chòm sao tín hiệu sát nhau khi bị ảnh hưởng do tạp nhiễu Trong khối inference (Hình 4b), cấu trúc của RepVGG gây ra, làm giảm hiệu quả nhận dạng tín hiệu. có sự thay đổi nhẹ. Thay vì sử dụng các nhánh Conv rồi cộng các đầu ra lại với nhau như trong khối training thì trong inference, tín hiệu đầu vào khi đi qua mô hình sẽ chỉ còn đi qua các lớp Conv3x3 và lớp kích hoạt ReLU liên tiếp (Hình 4B). Tuy nhiên đây là điểm phức tạp khi xây dựng mô hình này, vì các Conv3x3 không chỉ đơn giản là một Conv3x3 với trọng số được lấy ngẫu nhiên. Trọng số của các Conv3x3 trong inference sẽ được triển khai bằng cách cộng các trọng số của các nhánh Conv3x3, Conv1x1 và Identity (nếu có) trong training. Phương pháp này được gọi là cấu trúc lại các tham số (reparameterization). Các phần có cấu trúc khối tương tự nhau, điểm khác biệt duy nhất của các phần đó là số lượng của các khối trong phần đó. III. SO SÁNH VÀ THẢO LUẬN Hình 5: So sánh các độ chính xác phân loại các mô hình. A. Tập dữ liệu Các mô hình sử dụng cùng một tập dữ liệu HisarMod2019.1 [1] để phân loại điều chế tín hiệu. Tập dữ liệu bao gồm 26 dạng điều chế tín hiệu như trong Bảng I với SNR từ -20 dB đến +18 dB. Số lượng mẫu tín hiệu là 780 000 mẫu tín hiệu có độ dài 1024 cho 5 loại nhiễu khác nhau trong các điều kiện kênh lý tưởng, tĩnh, Rayleigh, Rician (k = 3) và Nakagami-m (m = 2), 520 000 mẫu tín hiệu cho huấn luyện và dữ liệu còn lại cho kiểm tra. Các mô hình huấn luyện sử dụng số vòng lặp (epoch) là 10, mini-batch size là 64, tốc độ học khởi tạo là 0,001. Thiết bị sử dụng để mô phỏng là 3.70 GHz CPU, 32GB RAM, và NVIDIA GeForce GTX 3060ti GPU. B. Thảo luận kết quả Trong phần này, nhằm đánh giá hiệu quả các mô hình cấu a) ResNet18 trúc mạng ResNet18, SqueezeNet, MobileNet, GoogleNet và RepVGG, nhóm tác giả sử dụng mô phỏng trên Matlab làm công cụ mô phỏng. Các kết quả so sánh độ chính xác của các mô hình thể hiện ở Hình 5. Từ kết quả mô phỏng, mô hình GoogleNet cho kết quả thấp nhất so với các mô hình khác, độ chính xác cao nhất là 56,76% tại +18 dB. Với hai mô hình MobileNet và RepVGG cho kết quả tốt hơn so với GoogleNet lần lượt là khoảng 10% và 15% cho SNR từ -20 dB đến 18 dB. Với ưu điểm của mô hình ResNet là bổ sung thông tin tín hiệu và ưu điểm của mô hình SqueezeNet là giảm tham số tính toán làm tăng tốc độ mô hình. Hai mô hình đều cho kết quả phân loại tín hiệu tốt ở đoạn SNR cao từ +2 dB đến +18 dB, trong ISBN 978-604-80-5958-3 270
  5. Hội nghị Quốc gia lần thứ 24 về Điện tử, Truyền thông và Công nghệ Thông tin (REV-ECIT2021) b) MobileNet cải thiện các mô hình dựa trên các tính chất các mô hình đã có, từ đó đưa ra mô hình giải quyết nhiều yêu cầu đầu ra hơn, ví dụ vừa phân loại tín hiệu vừa nhận dạng tín hiệu điều chế. Cuối cùng, với sự phát triển của cấu trúc mạng và phần cứng tính toán, phân loại điều chế dựa trên học sâu có thể được áp dụng rộng rãi trong các hệ thống truyền thông trong tương lai. Hơn nữa, vì môi trường vô tuyến là đa dạng, một số thông số môi trường thay đổi, gây ra sự không phù hợp giữa dữ liệu huấn luyện và suy luận dữ liệu, chắc chắn làm suy yếu hiệu suất phân loại nhận dạng tín hiệu, cần được tập trung nghiên cứu hơn nữa. REFERENCES [1] Xiaoyu Liu; Diyu Yang; Aly El Gamal, “Deep Neural Network Architectures for Modulation Classification,” 2017 51st Asilomar Conference on Signals, Systems, and Computers c) SqueezeNet [2] Kürşat Tekbıyık, Ali Rıza Ekti, Ali Görçin, Güneş Karabulut Kurt, Cihat Keçeci, “Robust and Fast Automatic Modulation Classification with CNN under Multipath Fading Channels,” 2020 IEEE 91st Vehicular Technology Conference (VTC2020-Spring) [3] K. He, X. Zhang, S. Ren, and J. Sun, “Deep residual learning for image recognition,” CoRR, vol. abs/1512.03385, 2015. [4] G. Huang, Z. Liu, and K. Q. Weinberger, “Densely connected convolutional networks,” CoRR, vol. abs/1608.06993, 2016. [5] Iandola, Forrest N., Song Han, Matthew W. Moskewicz, Khalid Ashraf, William J. Dally, and Kurt Keutzer. "SqueezeNet: AlexNet- level accuracy with 50x fewer parameters and
nguon tai.lieu . vn