Xem mẫu
- Hội nghị Quốc gia lần thứ 24 về Điện tử, Truyền thông và Công nghệ Thông tin (REV-ECIT2021)
Tự động nhận dạng điều chế dưới tác động của
nhiễu pha-đinh đa đường sử dụng kỹ thuật học sâu
Lê Hà Khánh1, Đoàn Văn Sáng2, Hoàng Văn Phúc1 và Đào Thị Thủy1
1
Viện Tích hợp hệ thống, Học viện Kỹ thuật Quân sự
Số 236 Hoàng Quốc Việt, Quận Bắc Từ Liêm, Hà Nội
2Học viện Hải Quân, Nha Trang, Khánh Hòa
Email: phuchv@mta.edu.vn
Tóm tắt— Tự động phân loại điều chế tín hiệu (Automatic Gần đây, học sâu (DL: Deep learning) là một nhánh của
Modulation Classification: AMC) đã được nghiên cứu trong máy học và đã đạt được thành công đáng kể vì khả năng
hơn một phần tư thế kỷ. Tuy nhiên, việc thiết kế một bộ phân phân loại tuyệt vời của nó. DL đã được áp dụng trong nhiều
loại hoạt động tốt trong môi trường nhiễu và các điều kiện lĩnh vực như phân loại hình ảnh, nhận dạng khuôn mặt, và xử
khác nhau là rất khó khăn. Gần đây, các phương pháp học tập lý ngôn ngữ tự nhiên. Một số mạng DL điển hình như mạng
sâu được áp dụng cho các hệ thống AMC và đạt được các kết nơ-ron tích chập (CNN: Convolutional Neural Network),
quả cao trong việc cải thiện độ chính xác trong phân loại tín mạng dư (RNN: Residual Neural Network) hay mạng
hiệu. Trong bài viết này, chúng tôi khảo sát các mô hình phân
CLDNN (Convolutional Long Short-term Deep Neural
loại ứng dụng các mạng nơ rơn tích chập để phân loại 26 dạng
Network) đã được áp dụng trong AMC [1]. Độ chính xác
tín hiệu điều chế dưới tác động của năm loại môi trường nhiễu
pha-đinh khác nhau với SNR từ -20 dB đến +18 dB. Bài báo
phân loại của các phương pháp dựa trên DL đã được chứng
trình bày phương pháp nhận dạng tín hiệu dựa trên các mô minh là cao hơn các phương pháp phân loại khác, đặc biệt là
hình mạng nơ ron tích chập và khảo sát độ chính xác khi nhận khi tỷ lệ tín hiệu trên nhiễu (SNR) thấp.
dạng tín hiệu điều chế. Các kết quả mô phỏng cho độ chính xác Bảng I: Tập dữ liệu HisarMod2019.1 [2].
cao so với các mô hình phân loại tín hiện trong điều kiện tín
hiệu chỉ chịu tác động của nhiễu tạp âm trắng. Một số mô hình Loại điều chế Các kiểu điều chế
như ResNet, SqueezeNet cho độ chính xác cao hơn 97,5% cho AM-DSB
SNR > +2 dB. AM-SC
Keywords—Tự động phân loại điều chế, học sâu, mạng nơ
AM-USB
Analog
ron tích chập (CNN). AM-LSB
FM
I. GIỚI THIỆU PM
2-FSK
Tự động phân loại tín hiệu điều chế (AMC: Automatic 4-FSK
Modulation Classification) là một quy trình để xác định sơ FSK
8-FSK
đồ điều chế của tín hiệu vô tuyến. Đây là một bước trung
gian giữa phát hiện tín hiệu và giải điều chế. Tuy nhiên, rất 16-FSK
khó để thiết kế một bộ phân loại tín hiệu hoạt động tốt trong 4-PAM
các điều kiện nhiễu khác nhau, đặc biệt là ảnh hưởng nhiễu PAM 8-PAM
pha đinh đa đường. Các thuật toán AMC đã được nghiên cứu 16-PAM
rộng rãi trong hơn 20 năm qua. Nhìn chung, các thuật toán BPSK
AMC cổ điển có thể được chia thành hai loại: dựa trên tỷ lệ QPSK
hợp lệ (LB: Likelihood-based) và dựa trên các đặc trưng (FB 8-PSK
Feature based). Các phương thức LB dựa trên khả năng của PSK
16-PSK
tín hiệu nhận được và các phương thức FB phụ thuộc vào 32-PSK
thiết kế phân loại và phân loại các đặc trưng tín hiệu. Phương
64-PSK
pháp phân loại điều chế LB là so sánh giá trị tỷ lệ khả năng
của tín hiệu nhận được trong nhóm điều chế được xem xét. 4-QAM
Nó cũng đã được sử dụng trong môi trường đa kênh để ước 8-QAM
tính các tham số không xác định và cung cấp kết quả nổi bật 16-QAM
để phân loại điều chế. Các phương thức LB cần biết được QAM 32-QAM
các tham số kênh và tính toán trở nên phức tạp khi các tham 64-QAM
số không xác định được. Mặc dù các phương thức LB có thể 128-QAM
đạt được giải pháp tối ưu, nhưng chúng phải chịu sự phức tạp 256-QAM
tính toán cao và yêu cầu thông tin trước từ các máy phát.
Ngược lại, các phương thức FB có thể có được các giải pháp
với mức độ độ phức tạp tính toán nhỏ hơn nhiều và không Trong bài báo này, chúng tôi sử dụng một tập dữ liệu
phụ thuộc vào thông tin tiên nghiệm. Hiệu suất của các HisarMod2019.1 trong bài báo [2], bao gồm 26 dạng tín hiệu
phương thức FB chủ yếu phụ thuộc vào bộ đặc trưng được điều chế thuộc 5 nhóm điều chế khác nhau và chịu ảnh
trích xuất. Các đặc trưng này phải được thiết kế thủ công để hưởng của 5 loại nhiễu pha đinh với các điều kiện khác nhau.
phù hợp với bộ điều chế và môi trường kênh tương ứng và có Bộ dữ liệu bao gồm 26 loại điều chế từ 5 nhóm điều chế
thể không khả thi trong các điều kiện nhiễu khác. Hơn nữa, khác nhau là tín hiệu tương tự, tín hiệu điều tần FSK, điều
việc tìm kiếm các đặc trưng hiệu quả đòi hỏi sự xem xét lớn chế xung biên độ PAM, điều chế pha PSK, và điều chế pha
về mặt dữ liệu. cầu phương QAM. Tất cả các loại điều chế được liệt kê trong
Bảng I. Tập dữ liệu công khai mới này cung cấp tín hiệu
ISBN 978-604-80-5958-3 267
- Hội nghị Quốc gia lần thứ 24 về Điện tử, Truyền thông và Công nghệ Thông tin (REV-ECIT2021)
không dây trong các điều kiện kênh lý tưởng, tĩnh, Rayleigh, vanishing gradient. Nhờ việc tổng hợp các đặc trưng giúp
Rician (k = 3) và Nakagami-m (m = 2). Do đó, có thể quan giảm sự mất mát thông tin cùng với độ phức tạp tính toán.
sát các điều kiện kênh thực tế hơn đối với các phương pháp
AMC dựa trên DL được đề xuất. Trong bộ dữ liệu có 1500 Chúng tôi sử dụng cấu trúc mạng ResNet 18 làm mô hình
tín hiệu có chiều dài 1024 mẫu I / Q đối với từng loại điều học sâu trong việc phân loại tín hiệu. Sau lớp tích chập đầu
chế, tỷ lệ mức tín hiệu trên nhiễu (signal to noise ratio: SNR) tiên, phép gộp cực đại (max-pooling) được sử dụng để trích
là từ -20 dB đến +18 dB, bước cách 2 dB. Tổng cộng, bộ dữ xuất các đặc trưng mức thấp, và sau lớp tích chập cuối cùng,
liệu có 780.000 mẫu tín hiệu. Khi tạo tín hiệu, tốc độ việc lấy gộp trung bình để tất cả các đặc trưng được trích
oversampling được chọn là 2 và sử dụng bộ lọc cosin nâng xuất đều quan trọng như nhau để ra quyết định. Hàm kích
với hệ số roll-off = 0.35. hoạt ReLU (Rectified Linear Unit): r ( x ) = max ( 0, x ) được
sử dụng để tăng quá trình huấn luyện. Sử dụng dropout với
Trong bài viết trình bày và đánh giá những lợi thế và bất
xác suất là 0,5 để tránh hiện tượng overfitting cho huấn luyện
lợi các kỹ thuật sử dụng trong từng mô hình, rất cần thiết để
dữ liệu.
nghiên cứu trong tương lai về phân loại điều chế dựa trên
DL. Nhóm tác giả thực hiện phân loại điều chế 26 tín hiệu vô Input xl −1
tuyến với các mô hình ứng dụng các mạng nơ rơn khác nhau,
sử dụng tập dữ liệu HisarMod2019. Một số mô hình như
ResNet, SqueezeNet cho độ chính xác cao hơn 97,5% cho
SNR > +2 dB. Ngược lại một số mô hình khác như Shortcut path
GoogleNet cho độ chính xác thấp, đạt cao nhất là 56,76% tại Weight Layer
+18 dB. H ( xl −1 ) ReLu
Cấu trúc bài báo được trình bày gồm 4 phần. Phần I là Weight Layer F ( xl −1 )
giới thiệu và mục tiêu nghiên cứu. Phần II trình bày chi tiết
các mô hình cấu trúc mạng nơ ron ứng dụng cho phân loại ReLu
điều chế tín hiệu. Các kết quả khảo sát phân loại tín hiệu, +
tính khả thi của các mô hình kiến trúc mạng đề xuất được
trình bày trong phần III. Cuối cùng là phần IV trình bày kết
luận và hướng nghiên cứu tiếp theo của bài báo. Output xl
II. CẤU TRÚC MẠNG HỌC SÂU Hình 1: Khối Residual [1].
Các nghiên cứu gần đây của mạng học sâu tập trung vào B. Mạng SqueezeNet
việc cải thiện độ chính xác phân loại tín hiệu. Trong bài báo
này, chúng tôi nghiên cứu hiệu suất phân loại điều chế tín Mạng SqueezeNet được đề xuất vào năm 2016 [5] với
hiệu của các dạng cấu trúc mạng nơ ron khác nhau: mạng mục đích tìm kiếm cấu trúc mạng CNN với các tham số ít
ResNet18, mạng MobileNet_V2, mạng GoogLeNet, mạng hơn, nhưng có độ chính xác tương đương với một số mô
SqueezeNet, mạng Rep_VGG. hình nổi tiếng khác. Điều này cho phép giảm hàm lượng
tính toán và tốc độ được cải thiện tương đối do số lượng
A. Mạng ResNet18 tham số ít đi. Cấu trúc mạng SqueezeNet được mô tả như
Khi mạng nơ ron phát triển sâu hơn, hiệu suất học tập của Hình 2, bắt đầu với một lớp tích chập, tiếp theo là 8 khối (từ
nó bị thách thức do các vấn đề như vanishing gradient (mạng fire2- fire9) và cuối cùng là một khối tích chập. Số lượng bộ
nơ ron bị vô hiệu) hay overfitting (mô hình quá phù hợp với lọc được tăng dần từ đầu mạng đến cuối mạng. SqueezeNet
dữ liệu huấn luyện nhưng lại kém hiệu quả với dữ liệu chưa sử dụng phép gộp cực đại (max-pooling) với bước trượt
biết). Do đó, việc huấn luyện và kiểm tra độ chính xác bắt (stride) bằng 2. Chúng ta có thể thấy ở Hình 2, các lớp
đầu suy giảm khi mạng nơ ron đạt đến độ sâu nhất định. Việc "Squeeze" là các lớp tích chập được tạo thành từ các bộ lọc
suy giảm kết quả độ chính xác kiểm tra do các vấn đề từ việc 1×1 và các lớp "mở rộng" này là các lớp tích chập với các
tăng độ phức tạp của mạng nơ ron. Sự giảm chính xác từ quá bộ lọc 1×1 và 3×3. Bằng cách giảm số lượng bộ lọc trong
trình huấn luyện do vanishing gradient làm cho quá trình tối lớp "squeeze" vào lớp "mở rộng", làm giảm số lượng kết nối
ưu hoá kém khả thi hơn, dẫn đến khả năng hội tụ đến mức tối vào các bộ lọc 3×3 này, do đó làm giảm tổng số tham số.
thiểu cho khả năng ước lượng giảm. Tác giả của mô hình SqueezeNet gọi kiến trúc cụ thể này là
Cấu trúc mạng ResNet được đưa ra trong ImageNet và "mô-đun lửa" và nó đóng vai trò là khối xây dựng cơ bản
COCO 2015 [3]. Nó đã giải quyết vấn đề suy giảm độ chính cho kiến trúc Squeezenet.
xác của mạng nơ ron sâu và là một lựa chọn rộng rãi cho các
nhiệm vụ học máy. Mô hình ResNet [1] và DenseNet [1, 4] C. Mạng MobileNet
gần đây đã góp phần giải quyết các vấn đề trên bằng cách tạo
Mạng MobileNet là một mô hình của nhóm tác giả đến
các đường dẫn tắt giữa các lớp khác nhau trong mạng. Một
khối xây dựng của mạng ResNet có thể được biểu thị bằng từ Google, cấu trúc mạng được đề xuất cho phép xây dựng
một mạng nhỏ phù hợp với các điều kiện hạn chế về tài
phương trình trong Hình 1, trong đó đầu vào là xl −1 , một
nguyên (thời gian, kích thước) và được ứng dụng trên các
hàm ánh xạ xl = H ( xl −1 ) được sử dụng cho hàm thiết bị nhỏ gọn có tài nguyên hạn chế [6]. MobileNet chủ
F ( xl −1 ) = H ( xl −1 ) − xl −1 , hàm F ( xl −1 ) gọi là hàm dư. Cấu yếu tập trung vào việc tối ưu hóa độ trễ nhưng cũng tập
trung cho các mạng nhỏ trong việc cải thiện tốc độ. Cấu trúc
trúc thắt cổ chai của mạng ResNet giúp loại bỏ vấn đề độ
phức tạp tính toán, và thành phần đường nối tắt giúp loại bỏ mạng MobileNet được xây dựng từ việc sử dụng cách tính
tích chập có tên là Depthwise Separable Convolution (DSC)
ISBN 978-604-80-5958-3 268
- Hội nghị Quốc gia lần thứ 24 về Điện tử, Truyền thông và Công nghệ Thông tin (REV-ECIT2021)
để giảm kích thước mô hình và giảm độ phức tạp tính toán. Khối Inception bao gồm bốn nhánh song song với nhau.
DSC được chia làm hai phần: tích chập theo chiều sâu (DC: Ba nhánh đầu sử dụng các tầng tích chập với kích thước cửa
Depthwise Convolution) và tích chập theo điểm (PC: sổ trượt lần lượt là 1×1, 3×3, và 5×5 để trích xuất thông tin
Pointwise Convolution) [6]. Sau mỗi lớp tích chập từ các vùng không gian có kích thước khác nhau. Hai nhánh
MobileNet sẽ sử dụng hàm chuẩn hóa theo cụm (BN: Batch giữa thực hiện phép tích chập 1×1 trên dữ liệu đầu vào để
Normalization) và hàm kích hoạt ReLu. giảm số kênh đầu vào, từ đó giảm độ phức tạp của mô hình.
Nhánh thứ tư sử dụng một tầng gộp cực đại (max-pooling)
Conv1 kích thước 3×3, theo sau là một tầng tích chập 1×1 để thay
đổi số lượng kênh. Cả bốn nhánh sử dụng bộ lọc phù hợp để
Maxpool/2 đầu vào và đầu ra của khối có cùng chiều cao và chiều rộng.
Cuối cùng, các đầu ra của mỗi nhánh sẽ được nối lại theo
fire2 chiều kênh để tạo thành đầu ra của cả khối. Các tham số
thường được tinh chỉnh của khối Inception là số lượng kênh
fire3
đầu ra mỗi tầng. Mô hình GoogleNet là tập hợp các khối
Inception lại với nhau để tạo thành một mạng hoàn chỉnh.
fire4 Ghép nối
Maxpool/2
3x3 Conv 5x5 Conv 1x1 Conv
fire5 1x1 Conv
3x3
1x1 Conv 1x1 Conv
Maxpooling
fire6
Đầu vào
fire7
Hình 3: Cấu trúc khối Inception [7].
Maxpool/2 E. Mạng RepVGG
Với các yêu cầu đòi hỏi ngày càng cao đối với học sâu,
fire8 các mô hình mạng CNN được thiết kế ngày càng phức tạp
hơn ResNet, Inception, MobileNet,… mang lại độ chính xác
fire9 cao nhưng đồng thời cũng tồn tại những bất lợi. Sự phức tạp
mô hình khiến việc xây dựng mô hình trở nên khó khăn hơn
conv10 đồng thời cũng dẫn dến việc suy luận chậm hơn hay làm
Hình 2: Khối SqueezeNet [5]. tăng việc chiếm tài nguyên hệ thống. Xuất phát từ mô hình
mạng VGG [8] với kiến trúc đơn giản chỉ gồm các lớp tích
Giả sử M là số lượng đầu vào của kênh, N là số lượng chập Conv, ReLu và pooling. Mô hình mạng RepVGG được
đầu ra của kênh, Dk là kích thước bộ lọc (kernel), Df là kích cải tiến từ mạng VGG nhằm sở hữu cấu trúc mạng đơn giản
thước của đặc trưng tín hiệu. mà vẫn đảm bảo hiệu quả [9]. Cấu trúc các khối RepVGG
Khi đó, chi phí tính toán của DC là: như Hình 4.
Dk Dk M D f D f (1)
Stride = 2 3x3 1x1 3x3
Chi phí tính toán cho PC: Stride = 2
M N Df Df (2) +
Tổng chi phí tính toán của DSC là:
Dk Dk M D f D f + M N D f D f (3)
3x3 1x1 3x3
Nếu không sử dụng DSC mà chỉ sử dụng phép tính chập +
bình thường thì chi phí tính toán là:
Dk Dk M N D f D f (4)
Do đó, chi phí tính toán sẽ giảm: 3x3 1x1 3x3
Dk Dk M D f D f + M N D f D f 1 1 +
= + (5)
Dk Dk M N D f D f N D2k
D. Mạng GoogLeNet 3x3 1x1 3x3
Mô hình mạng GoogleNet được đưa ra vào năm 2014 [7] +
và giành được chiến thắng ở cuộc thi ImageNet. Mô hình
tập trung vào việc giải quyết vấn đề kích thước nào của bộ
lọc tích chập là tốt nhất, việc kết hợp các bộ lọc có kích (a) RepVGG tranning (b) RepVGG inference
thước khác nhau đôi khi sẽ mang lại hiệu quả tốt. Khối tích Convolution ReLu Identity
chập cơ bản trong mô hình GoogleNet được gọi là Inception
Hình 4: Cấu trúc khối RepVGG [9].
như ở Hình 3.
ISBN 978-604-80-5958-3 269
- Hội nghị Quốc gia lần thứ 24 về Điện tử, Truyền thông và Công nghệ Thông tin (REV-ECIT2021)
Mô hình RepVGG được chia thành 5 phần, trong mỗi đó mô hình SqueezeNet cho kết quả phân loại cao nhất so
phần sẽ gồm các khối tương tự nhau về cấu trúc. Các lớp với các mô hình khác (độ chính xác đạt được từ 97,5% cho
đầu tiên trong các khối gồm các lớp Conv có bước trượt SNR > +8 dB).
bằng 2 để thực hiện down-sampling. Khi xem xét với ma trận nhầm lẫn (confusion matrix)
Trong khối training (Hình 4A), khi tín hiệu đầu vào cho hiệu suất phân loại 26 tín hiệu của các mô hình tại
được truyền vào từng đoạn, tín hiệu sẽ được đi qua đồng SNR=10 dB được chỉ ra trong Hình 6 phân tích kỹ hơn. Từ
thời 2 lớp Conv3x3 và Conv1x1 với bước trượt bằng 2, sau confusion matrix, có thể thấy một vài loại điều chế tín hiệu
đó đầu ra của hai lớp này sẽ được cộng lại với nhau và đi mức thấp như AM, FM cho kết quả nhận dạng phân loại ít
qua một lớp kích hoạt ReLU cuối cùng. Tín hiệu của khối bị nhầm lẫn, có độ chính xác trên 70% tại +10dB SNR và ít
đầu tiên được tiếp tục sử dụng cho khối tiếp theo. Từ khối bị lỗi hơn. Với các tín hiệu điều chế mức cao như PSK,
thứ hai trở đi, cấu trúc các khối là giống hệt nhau. Các khối QAM cho độ chính xác dưới 60% tại +10dB SNR. Có thể
đều gồm ba nhánh: Conv3x3 với bước trượt bằng 1, thấy các tín hiệu điều chế mức cao mặc dù cho tốc độ truyền
Conv1x1 với bước trượt bằng 1, nhánh Identity sử dụng BN. dẫn nhanh hơn, nhưng khi phân loại điều chế tín hiệu có
Đầu ra của các nhánh cũng sẽ được cộng lại với nhau trước nhiều thay đổi khi tỷ lệ lỗi tăng, bởi thực tế sự phân bố
khi đưa qua một lớp ReLU như trong Hình 4a. chòm sao tín hiệu sát nhau khi bị ảnh hưởng do tạp nhiễu
Trong khối inference (Hình 4b), cấu trúc của RepVGG gây ra, làm giảm hiệu quả nhận dạng tín hiệu.
có sự thay đổi nhẹ. Thay vì sử dụng các nhánh Conv rồi
cộng các đầu ra lại với nhau như trong khối training thì
trong inference, tín hiệu đầu vào khi đi qua mô hình sẽ chỉ
còn đi qua các lớp Conv3x3 và lớp kích hoạt ReLU liên tiếp
(Hình 4B). Tuy nhiên đây là điểm phức tạp khi xây dựng mô
hình này, vì các Conv3x3 không chỉ đơn giản là một
Conv3x3 với trọng số được lấy ngẫu nhiên. Trọng số của
các Conv3x3 trong inference sẽ được triển khai bằng cách
cộng các trọng số của các nhánh Conv3x3, Conv1x1 và
Identity (nếu có) trong training. Phương pháp này được gọi
là cấu trúc lại các tham số (reparameterization).
Các phần có cấu trúc khối tương tự nhau, điểm khác biệt
duy nhất của các phần đó là số lượng của các khối trong
phần đó.
III. SO SÁNH VÀ THẢO LUẬN
Hình 5: So sánh các độ chính xác phân loại các mô hình.
A. Tập dữ liệu
Các mô hình sử dụng cùng một tập dữ liệu
HisarMod2019.1 [1] để phân loại điều chế tín hiệu. Tập dữ
liệu bao gồm 26 dạng điều chế tín hiệu như trong Bảng I với
SNR từ -20 dB đến +18 dB. Số lượng mẫu tín hiệu là
780 000 mẫu tín hiệu có độ dài 1024 cho 5 loại nhiễu khác
nhau trong các điều kiện kênh lý tưởng, tĩnh, Rayleigh,
Rician (k = 3) và Nakagami-m (m = 2), 520 000 mẫu tín
hiệu cho huấn luyện và dữ liệu còn lại cho kiểm tra.
Các mô hình huấn luyện sử dụng số vòng lặp (epoch) là
10, mini-batch size là 64, tốc độ học khởi tạo là 0,001. Thiết
bị sử dụng để mô phỏng là 3.70 GHz CPU, 32GB RAM, và
NVIDIA GeForce GTX 3060ti GPU.
B. Thảo luận kết quả
Trong phần này, nhằm đánh giá hiệu quả các mô hình cấu a) ResNet18
trúc mạng ResNet18, SqueezeNet, MobileNet, GoogleNet và
RepVGG, nhóm tác giả sử dụng mô phỏng trên Matlab làm
công cụ mô phỏng. Các kết quả so sánh độ chính xác của các
mô hình thể hiện ở Hình 5.
Từ kết quả mô phỏng, mô hình GoogleNet cho kết quả
thấp nhất so với các mô hình khác, độ chính xác cao nhất là
56,76% tại +18 dB. Với hai mô hình MobileNet và
RepVGG cho kết quả tốt hơn so với GoogleNet lần lượt là
khoảng 10% và 15% cho SNR từ -20 dB đến 18 dB. Với ưu
điểm của mô hình ResNet là bổ sung thông tin tín hiệu và
ưu điểm của mô hình SqueezeNet là giảm tham số tính toán
làm tăng tốc độ mô hình. Hai mô hình đều cho kết quả phân
loại tín hiệu tốt ở đoạn SNR cao từ +2 dB đến +18 dB, trong
ISBN 978-604-80-5958-3 270
- Hội nghị Quốc gia lần thứ 24 về Điện tử, Truyền thông và Công nghệ Thông tin (REV-ECIT2021)
b) MobileNet cải thiện các mô hình dựa trên các tính chất các mô hình đã
có, từ đó đưa ra mô hình giải quyết nhiều yêu cầu đầu ra hơn,
ví dụ vừa phân loại tín hiệu vừa nhận dạng tín hiệu điều chế.
Cuối cùng, với sự phát triển của cấu trúc mạng và phần
cứng tính toán, phân loại điều chế dựa trên học sâu có thể
được áp dụng rộng rãi trong các hệ thống truyền thông trong
tương lai. Hơn nữa, vì môi trường vô tuyến là đa dạng, một
số thông số môi trường thay đổi, gây ra sự không phù hợp
giữa dữ liệu huấn luyện và suy luận dữ liệu, chắc chắn làm
suy yếu hiệu suất phân loại nhận dạng tín hiệu, cần được tập
trung nghiên cứu hơn nữa.
REFERENCES
[1] Xiaoyu Liu; Diyu Yang; Aly El Gamal, “Deep Neural Network
Architectures for Modulation Classification,” 2017 51st Asilomar
Conference on Signals, Systems, and Computers
c) SqueezeNet [2] Kürşat Tekbıyık, Ali Rıza Ekti, Ali Görçin, Güneş Karabulut Kurt,
Cihat Keçeci, “Robust and Fast Automatic Modulation Classification
with CNN under Multipath Fading Channels,” 2020 IEEE 91st
Vehicular Technology Conference (VTC2020-Spring)
[3] K. He, X. Zhang, S. Ren, and J. Sun, “Deep residual learning for
image recognition,” CoRR, vol. abs/1512.03385, 2015.
[4] G. Huang, Z. Liu, and K. Q. Weinberger, “Densely connected
convolutional networks,” CoRR, vol. abs/1608.06993, 2016.
[5] Iandola, Forrest N., Song Han, Matthew W. Moskewicz, Khalid
Ashraf, William J. Dally, and Kurt Keutzer. "SqueezeNet: AlexNet-
level accuracy with 50x fewer parameters and
nguon tai.lieu . vn