Xem mẫu
- 24
Chương 2: Mạng nơ ron và ứng dụng trong điều khiển
2.1 Cấu trúc và luật học của mạng nơ ron
2.1.1 Mô hình một nơ ron nhân tạo
Mạng nơ ron nhân tạo là dùng kỹ thuật tái tạo lại một vài chức năng
tương tự bộ não con người. Việc nghiên cứu ứng dụng mạng nơ ron mở ra
một hướng mới trong việc giải quyết các bài toán kỹ thuật và kinh tế, ...
Trong bài toán kỹ thuật, mạng nơ ron có thể nhận dạng, điều khiển, nhận
mẫu, giải quyết các bài toán tối ưu, ... và tỏ ra rất có hiệu quả.
Mô hình nơ ron
p1 Wi1
nhân tạo cơ bản thứ i qi
...
...
trong mạng xây dựng
yi
ai
dựa trên cấu trúc của nơ
pR
học
ron sinh do
WiR
θi
-1
McCulloch và Pitts đề
Hỡnh 2.1 Mụ hình nơ ron thứ i.
xuất và được Rosenblatt
cải tiến, gọi là
perceptron [36], nó có thể có nhiều đầu vào (R đầu vào) và chỉ có một đầu
ra (hình 2.1).
Quan hệ giữa đầu ra và các đầu vào của nơ ron thứ i:
yi = ai(qi) = ai(fi(p)), (2.1)
p - véc tơ biến đầu vào,
trong đó:
fi - hàm tổng hợp,
ai - hàm chuyển đổi,
yi - biến đầu ra của nơ ron thứ i,
R
∑ w ij .p j − θi - tổng trọng số,
qi = fi(p) =
j=1
wij - trọng số liên kết giữa đầu vào thứ j với nơ ron thứ i,
- 25
θ i - ngưỡng của nơ ron thứ i (hằng số),
Có nhiều dạng hàm tổng hợp fi(.) được dùng như:
. Hàm tổng hợp tuyến tính: (hàm này rất hay được dùng)
R
∑ w ij .p j − θi ,
fi(p) = (2.2)
j=1
. Hàm bậc hai (Quadratic function):
R
∑ w ij .p 2j − θi ,
fi(p) = (2.3)
j=1
. Ngoài ra còn có các hàm hình bán cầu, hàm đa thức, v. v ...
Với mục đích đơn giản, thực tế thường chọn hàm tổng hợp tuyến
tính.
Hàm chuyển đổi a(.) cũng có rất nhiều dạng được dùng, ví dụ một vài
dạng hàm cơ bản như sau:
. Hàm chuyển đổi tuyến tính (Liner function):
a(q) = q, (2.4)
. Hàm dấu (hàm ngưỡng: threshold function):
n u ≥ 0
1 Õ
q
a(q) = sgn(q) = (2.5)
− 1 Õ
n u < 0
q
. Hàm sigmoid một cực (Unipolar sigmoid function):
1
a(q) = (2.6)
1 + e −λ.q
. Hàm sigmoid hai cực (Bipolar sigmoid function):
2
−1
a(q) = (2.7)
1 + e −λ.q
v. v ...
- 26
2.1.2 Mô hình mạng nơ ron nhân tạo
Mô hình mạng nơ ron được hình thành từ việc liên kết các nơ ron với
nhau theo một nguyên tắc nào đó. Có rấtnhiều oại mạng và việc phân loại
mạng cũng có nhiều cách:
- Theo số lớp: có mạng nơ ron một lớp, mạng nơ ron nhiều lớp.
- Theo cấu trúc liên kết giữa đầu vào và đầu ra: có mạng nơ ron
truyền thẳng, mạng nơ ron hồi quy.
- Theo tính chất làm việc: có mạng tĩnh (static network) và mạng động
(dynamic network).
v. v ...
Phần tử gây trễ (TDL: Tapped Delay Line) là phần tử có tín hiệu ra
của nó bị trễ một khoảng thời gian so với tín hiệu vào, có hai tham số trễ là
thời gian trễ (bước) và bậc trễ. Phần tử này
p(t)
được sử dụng để lấy tín hiệu quá khứ (hình
TDL
2.2) và nó là yếu tố để tạo ra các đơn vị nơ
q(t)
ron động lực học (Dynamic Neural Units) và
Hình 2.2 Phần
mạng động lực học trong hệ thống rời rạc tử TDL
(mạng động).
Quan hệ vào - ra như sau: q(t) = w.p(t-i.ô), (2.8)
với w là trọng số của TDL, i là bậc trễ, i = 0, 1, ..., n, ô là thời gian trễ một
bậc.
Một số liên kết cơ bản của mạng nơ ron được trình bày trên hình 2.3.
Mạng một lớp truyền thẳng (single-layer feedforward network):
Các nơ ron cùng nhận đồng thời tín hiệu vào như nhau và có chức
năng giống nhau tạo thành một lớp của mạng nơ ron, số nơ ron trong một
lớp chính là số đầu ra của lớp đó. Mạng nơ ron chỉ có một lớp gọi là mạng
nơ ron một lớp. Với mạng nơ ron một lớp truyền thẳng (ví dụ có R đầu
- 27
vào, S đầu ra), ma trận trọng số W sẽ có S hàng, R cột. Trong đó phần tử
wij là trọng số liên kết giữa nơ ron thứ i và đầu vào thứ j, có các hàm tổng
hợp fi, hàm chuyển đổi ai (các hàm này thường chọn giống nhau cho mỗi
lớp: ai = a, fi = f).
Quan hệ vào - ra có dạng sau (hình 2.3a):
y = a(f(x)), (2.9)
y = [y1, y2, ..., yS]T là véc tơ biến tín hiệu ra,
trong đó:
x = [x1, x2, ..., xS]T là véc tơ tín hiệu vào.
- 28
w1,1
y1 x1
x1
y1
w1,R
y2 x2
x2
w
. ...
... 2,R
xR
..
wS,R
xR y2
Lớp vào Lớ p ẩ n
yS
Lớp ra
a)
b)
x1 y1 y1
x1
x2 y2 y2
x2
... .. .
...
.
xR ..
xR
c)
yS
Hình 2.3 Một số d) ng
dạ
x1 y1
liên kết của mạng.
a) mạng một lớp truyx2
ền y2
thẳng, ... ...
b) mạng nhiều lớp
x yS
R
truyền thẳng, e)
c) nút tự hồi quy,
Mạng nhiều lớp truyền thẳng (multi-layers feedforward network):
Gồm nhiều lớp (N lớp) ghép liên tiếp với nhau, đầu ra của lớp này
được nối với đầu vào của lớp ngay sau nó.
Lớp đầu tiên là lớp vào (input layer) có R đầu vào, S1 đầu ra.
Lớp cuối cùng là lớp ra (output layer) có SN-1 đầu vào, SN ( gọi tắt là S)
đầu ra.
- 29
Giữa chúng có thể có một số lớp cũng nối liên tiếp nhau gọi là các lớp
ẩn (hidden layers), chúng đóng vai trò trung gian trong mạng, không tiếp xúc
trực tiếp với bên ngoài. Mỗi lớp ẩn (ví dụ lớp thứ k) có S đầu vào, S
k-1 k
đầu ra.
Các nơ ron trong một lớp được nối theo cấu trúc ghép nối hoàn toàn,
nghĩa là mỗi nơ ron sẽ được nối với tất cả các tín hiệu vào của lớp đó và
các nơ ron trong cùng lớp có cấu trúc liên kết hoàn toàn giống nhau.
Quan hệ vào - ra của mạng có dạng sau (hình 2.3b):
yS = aN(fN(aN-1(...(a1(f1(x)))...))), (2.10)
yS = [y1, y2, ..., yS]T là véc tơ biến tín hiệu ra,
trong đó:
ak, fk (k=1, ..., N) hàm kích hoạt và hàm tổng hợp của lớp thứ
k.
Mạng nơ ron hồi quy (recurrent network):
Mạng nơ ron hồi quy còn gọi là mạng phản hồi (feedback network), là
loại mạng mà tín hiệu ra của nơ ron được phản hồi ngược về làm tín hiệu
vào cho các nơ ron lớp trước nó hoặc cùng lớp đó tạo thành các vòng kín
(hình 2.3d, e). Tín hiệu phản hồi có thể có phần tử TDL. Loại mạng này sẽ
được xem xét kỹ ở phần sau, đó là mạng nơ ron hồi quy cục bộ.
2.1.3 Các luật học
Việc “học” của mạng nơ ron là để tìm được chính xác giá trị ma trận
trọng số liên kết W của các nơ ron và xác định được cấu trúc cụ thể của
mạng để giải quyết được bài toán cụ thể.
Có hai kiểu học là học cấu trúc và học thông số:
- Học cấu trúc (Structure learning): Xác định cấu trúc của mạng bao
gồm số lượng nút (nơ ron) trong mỗi lớp và giá trị của các ma trận trọng số
W của mạng (số lớp không thay đổi).
- 30
- Học thông số (Parameter learning): Tìm được chính xác giá trị của
các ma trận trọng số W ứng với cấu trúc (cố định) của mạng nơ ron đã cho.
Có ba phương pháp học:
. Học có giám sát (Supervised learning): Tín hiệu giám sát là những
thông tin mong muốn d được cung cấp từ bên ngoài mà đầu ra y của mạng
nơ ron cần phải đạt được (hình 2.4 a).
. Học củng cố (Reinforcement learning): Thông tin cung cấp từ bên
ngoài d (tín hiệu củng cố) mang tính định hướng cho quá trình học (cho biết
tín hiệu ra của mạng đúng hay sai) (hình 2.4 b).
. Học không giám sát (Unsupervised learning): Quá trình học không có
bất kỳ thông tin nào từ bên ngoài để giám sát, đó là quá trình tự cấu trúc của
mạng. Mạng phải tự xác định các cặp dữ liệu mẫu (dữ liệu vào, ra), các
tính chất, các mối quan hệ để tạo được ma trận W mong muốn (hình 2.4 c).
Dạng chung của luật học thông số là xác định giá trị cần điều chỉnh
∆ Wi cho véc tơ trọng số Wi:
Với mạng rời rạc: ∆ Wi(t) = η .r.x(t), (2.11)
Trong đó: η là số dương xác định tốc độ học (hằng số học),
r là tín hiệu học, r = fr(Wi, x, di). (2.12)
Lúc đó giá trị véc tơ trọng số tại thời điểm (t+1) là:
Wi(t+1) = Wi(t) + η .fr(Wi, x(t), di).x(t). (2.13)
dWi ( t )
= η .r.x(t),
Với mạng liên tục: (2.14)
dt
Có nhiều thuật toán học để xác định ∆ Wi(t) được đưa ra. Một trong
những thuật toán học có giám sát cho mạng nơ ron được Widrow-Hoff đề
nghị là thuật toán “giảm gradient” (gradient descent), sử dụng cực tiểu sai
lệch trung bình bình phương bằng việc thêm vào các trọng số liên kết
mạng một giá trị theo hướng ngược với hướng tức thời của gradient. Thuật
- 31
toán sử dụng phương pháp sai lệch trung bình bình phương nhỏ nhất (LMS:
Least Mean Squares) hoặc gọi là phương pháp delta.
Hàm chi phí chuẩn sử dụng trong mạng nơ ron, sai lệch trung bình
bình phương, của thuật toán này là định nghĩa một hàm đạt cực tiểu E như
sau:
1 Nl
E = ∑ (d n (k ) − y n (k )) → min,
L 2
(2.15)
2 n =1
ở đây: dn(k) là đầu ra mong muốn thứ n tại thời điểm t và L là số lớp.
Mạng nơ ron Mạng nơ ron
x y
x
y
W W
e
Khối phát tín
hiệu sai lệch d
(a)
(c)
Mạng nơ ron
y
W
x
e
Khối phát tín d
hiệu nhận xét
(b)
Hình 2.4 Các phương pháp học của
mạng nơ ron.
2.1.4 Mạng nơ ron hồi quy cục bộ
ở đây chúng ta quan tâm đến mạng nơ ron hồi quy cục bộ (Local
Recurrent Neural Networks:
TDL
LRNN) có cấu trúc như hình y1
x1 IW1,1
2.5: LW
TDL 1,1
IWS1,1
y2
x2
TDL
IW1,R ...
IWS1,R LWS2,S1
xR
lớp vào các lớp ẩn
lớp ra
- 32
Mạng có R tín hiệu vào, S tín hiệu ra và có thể gồm nhiều lớp ẩn (gọi
là: lớp vào, các lớp ẩn và lớp ra):
Lớp vào có R tín hiệu vào (véc tơ x),
Lớp ẩn thứ i (i = 1, ..., n-1) có Si nơ ron hồi quy và có lấy tín hiệu quá
khứ qua khối trễ TDL,
Lớp ra có Sn nơ ron và truyền thẳng tín hiệu cho S đầu ra (véc tơ y),
S=Sn.
Hàm chuyển đổi cho các lớp có thể giống nhau hoặc khác nhau, tuy
nhiên nếu hai lớp kề nhau có hàm chuyển đổi tuyến tính thì không cần
thiết do có thể thay bằng một lớp tuyến tính để giảm bớt độ phức tạp của
mạng khi thiết kế. Hàm tổng hợp cho các lớp là hàm tuyến tính. Hàm
truyền của mạng có dạng (2.16):
q1
Lớp ẩn thứ nhất: Y (k ) = a1 (IW1.X(k ) + ∑ L W1.Y (k − j) + θ1 ) (2.16a)
1 j 1
j =1
...
qp
(k ) + ∑ LjWp .Y p (k − j) + θp ) (2.16b)
p −1
p
Lớp ẩn thứ p: Y (k ) = a i (LWp .Y
j =1
...
Lớp ẩn thứ n (lớp ra): Y = Y n (k ) = a n (LWn .Y n −1 (k ) + θ n ) (2.16c)
Trong đó: IW1 ma trận trọng số lớp vào, qi bậc trễ của lớp thứ i, tương
ứng ma trận trọng số LjWi, j = 1, 2, ..., qi,
LjWi các ma trận trọng số của lớp ẩn thứ i hồi quy,
LWi ma trận trọng số truyền thẳng.
Nhờ khả năng “học” mà mạng được sử dụng để nhận dạng rất hiệu
quả các hệ thống có mức độ phi tuyến cao và sau đó xây dựng các luật
thích hợp để điều khiển hệ thống theo ý muốn.
- 33
Thuật toán học của LRNN là thuật toán “giảm gradient” còn gọi là
phương pháp delta, là phương pháp ứng dụng cho mạng một lớp, được mở
rộng bằng cách thêm hằng số động lượng (momentum) và tổng quát hoá
bằng cách sử dụng lan truyền ngược sai lệch (backpropagation) để ứng
dụng cho mạng nhiều lớp và mạng hồi quy (Gradient Descent with
Momentum Backpropagation: GDMB).
Thuật toán học “giảm gradient” (GDMB) ứng dụng rất tốt cho mạng
nơ ron để giải quyết nhiều bài toán thực tế kỹ thuật, nhất là các bài toán
nhận dạng và điều khiển hệ thống với thông số chưa biết.
Với thuật toán này, giá trị ∆ Wi(t) có thể xác định theo (2.17),
∆ Wi(t) = mc.∆ Wi(t-1) + (1-mc).η . fr(Wi, x, di).x(t), (2.17)
trong đó: mc (momentum constant) là hằng số động lượng, (0 < mc < 1).
Sự ổn định của phương pháp lan truyền ngược sai lệch được bảo đảm
bằng định lý sau:
Định lý ổn định của luật học RBP:
Nếu giả thiết mạng nơ ron lan truyền ngược hồi quy (mạng RBP:
Recurrent Back-Propagation) với phương trình mô tả:
τyi = -yi + a ∑ w ij yi + x i
(2.18a)
j
sẽ tồn tại trạng thái ổn định:
yi = a(hi) = a ∑ w ij yi + x i , (2.18b)
j
thoả mãn yi = 0 , thì mạng lan truyền ngược sai lệch (mạng EBP: Error
Back-Propagation) tương ứng của nó mô tả theo phương trình:
τz i = −z i + ∑ a ′(h p ) w pi z p + E i
(2.19a)
p
cũng có trạng thái ổn định như mô tả:
- 34
z i − ∑ a ′( h p ) w pi z p = E i . (2.19b)
p
Nói cách khác, nếu phương trình (2.18b) là trạng thái ổn định của
(2.18a), thì phương trình (2.19b) là trạng thái ổn định của (2.19a).
Chứng minh: xem [36]
Để tìm hiểu thuật toán học chi tiết, ta xét một nơ ron thứ i trong lớp
ẩn thứ p từ (2.16b) bỏ qua chỉ số i và ký hiệu L cho đơn giản như hình 2.6:
qi
Y p (k ) = a ( W.Y p−1 (k ) + ∑ j W .Y p ( k − j) + θp ) . (2.20)
j=1
Tham số của vế phải gồm ba thành phần là ngưỡng θ p và
p −1
Xp(k) = W .Y (k ) đóng vai trò tín hiệu vào từ lớp p - 1,
qi
X (k)= ∑ W.Y (k − j) đóng vai trò tín hiệu phản hồi về từ lớp
j p
p
ph
j=1
p,
Mục tiêu của
mạng học là điều j
Xpph(k W
chỉnh W, jW và θ p sao
a(.)
X (k) Σ n(k)
cho hàm chi phí E Wi
Yp(k)
p- p
Y
theo (2.15) đạt giá trị 1
(k)
nhỏ nhất. Từ (2.20)
θp
để đơn giản, chỉ xét
Hình 2.6 Một nơ ron
truyền ngược của
hồi quy.
tín hiệu Xp và θ p thì Yp(k) sẽ có dạng như (2.21):
Y p (k ) = a ( W p .Y p−1 + θp ) = a (n ) . (2.21)
Lấy đạo hàm riêng của E (2.15) theo W và θ p và hiệu chỉnh trọng số
và ngưỡng tại bước lặp thứ k + 1 theo công thức sau:
- 35
∂E
Wipj (k + 1) = Wipj (k ) − η , (2.22)
, ,
∂Wipj
,
∂E
θip (k + 1) = θip (k ) − η , (2.23)
∂θip
ở đây E là hàm gián tiếp của các trọng số, do đó sử dụng luật dây chuyền
thông qua biến trung gian n dạng:
∂f (n ( W )) ∂f ( n ) ∂n ( W )
= x . (2.24)
∂W ∂n ∂W
Để tính đạo hàm riêng của E trong (2.22) và (2.23), tín hiệu ra của nơ
ron thứ i trong lớp p được tính theo công thức:
Sp −1
∑ Wip, j y pj−1 + θ ip ,
nip = (2.25)
j=1
∂n ip ∂n p
= y p−1 và ip = 1 .
trong đó: j
∂Wipj ∂θi
,
∂E ∂E ∂n ip ∂E
= p y p−1 ,
= px
Từ đó ta có: (2.26)
j
∂Wi , j ∂n i ∂Wi , j ∂n i
p p
∂E ∂E ∂n ip ∂E
= =
x . (2.27)
∂θip ∂n ip ∂θip ∂n ip
∂E
= s ip là độ nhạy (sensitivity) của hàm E đối với sự biến đổi
Đặt
∂n i
p
của tín hiệu vào n của nơ ron thứ i trong lớp thứ p (hình 2.6).
Khi đó các công thức (2.22) và (2.23) sẽ là:
Wipj (k + 1) = Wipj (k ) − ηSp y p−1 , (2.28)
, , jj
θip ( k + 1) = θip (k ) − ηSp . (2.29)
j
Ký hiệu ma trận độ nhạy của lớp thứ p:
- 36
T
∂E ∂E ∂E
Sp = p , p ,..., p . (2.30)
∂n1 ∂n 2 ∂n S p
Và dạng ma trận của (2.28) và (2.29) sẽ là:
Wp(k+1) = Wp(k) - η .Sp.(yp-1)T, (2.31)
θ p(k+1) = θ p(k) - η .Sp, (2.32)
trong đó yp-1 là ma trận tín hiệu ra của lớp p-1.
Lúc này bài toán tính đạo hàm riêng của hàm E chuyển thành bài toán
tính độ nhạy. Thuật toán học lan truyền ngược liên quan đến bài toán này.
Độ nhạy của lớp p sẽ được tính toán từ độ nhạy của lớp p+1 đã được tính
trước đó.
Từ biến đổi:
S
p
∂ ∑ Wipk+1 y p + θip+1
k =1 , k
∂n j = W p+1 ∂y j ,
p +1 p
(2.33)
=
∂n p ∂n p ∂n p
i,j
j j j
tín hiệu ra của nơ ron thứ j lớp p theo hàm chuyển đổi a của biến vào n:
yjp = ap(njp). (2.34)
Thay vào ma trận Jacobi (2.33) ta được:
∂n p+1 ∂a p (n p )
= Wi , j = Wipj+1a 'p (n p )
p +1
j j
(2.35)
∂n j ∂n j
, j
p p
và viết dưới dạng ma trận:
∂n p+1
= W p+1A'p (n p ) , (2.36)
∂n p
với ký hiệu các ma trận:
a 'p ( n1p ) 0
0
0 a ' (n p ) 0
p
A' (n ) =
2
p p
(2.37)
p
0 0 a ' p ( n Sp )
- 37
∂n1 +1 ∂n1 +1
∂n1 +1
p p p
∂n p ∂n Sp
∂n p p
p1+1
2
p +1
∂n p+1
∂n 2 ∂n 2
∂n p+1 2
= ∂n1 ∂n Sp .
∂n p
p p
và (2.38)
∂n p 2
∂n pp+11 ∂n Sp++11
+ p+
∂n Sp+11 p
p p
S
∂n1 ∂n p ∂n Sp
2
Sử dụng luật dây chuyền:
T
∂E ∂n p+1 ∂E
s = p = p . p+1 = A'p (n p ).( W p+1 ) T .s p+1
p
(2.39)
∂n ∂n ∂n
là công thức thể hiện sự lan truyền ngược độ nhạy. Và độ nhạy ban đầu
tại nơ ron thứ i của lớp ra sS:
sS
∂ ∑ (d j − y j ) 2
siS = ∂E ∂y i , (2.40)
j=1
= = − (d j − y j )
∂n S S S
∂n i ∂n i
i
với yi là tín hiệu ra của nơ ron lớp S:
∂y i ∂yS ∂a S ( n S )
= iS = = a 'S ( n S ) .
i
(2.41)
∂n i ∂n i ∂n i
i
S S
Thay vào (2.39) ta được:
siS = -(di - yi)a’S(niS). (2.42a)
Dạng ma trận của sS sẽ là:
SS = -A’S(nS)(d-y). (2.42b)
Quá trình học của tín hiệu Xpph cũng tương tự tín hiệu Xp ở trên, chỉ
thay tín hiệu Yp(k) bằng Yp(k-jj) với jj = 1, ..., qi ; qi là bậc trễ.
Các bước thực hiện thuật toán học:
Bước 1: Cung cấp tập dữ liệu dạy gồm k cặp mẫu tín hiệu vào và kết
quả ra, tức là tập {(Pk, yk)}.
- 38
Bước 2: Chọn các giá trị ban đầu bất kỳ cho các ma trận trọng số và
véc tơ ngưỡng của mạng, chọn η , mc.
Bước 3: Lần lượt cho các mẫu Pk lan truyền qua mạng từ lớp vào đến
lớp ra. Tính toán tín hiệu ra yp cho từng lớp theo trình tự:
y0 = Pk,
...
yp theo (2.20), p = 0, 1, ..., S-1: chỉ số lớp,
y = yS (tín hiệu ra của mạng),
Bước 4: Tính độ nhạy lớp ra SS theo (2.42b),
Bước 5: Dùng công thức lan truyền ngược độ nhạy (2.39) để tính các
Sp,
Bước 6: Từ các Sp tính toán được, hiệu chỉnh các ma trận trọng số và
véc tơ ngưỡng của từng lớp,
Bước 7: Lặp lại quá trình (từ bước 3) với các dữ liệu dạy khác cho
đến khi hết tập dữ liệu dạy. (gọi là một lần lặp: epoch),
Quá trình lặp trên (từ bước 3 đến bước 7) được thực hiện cho đến khi
sai số đầu ra đạt đến giá trị chấp nhận được.
Sự hội tụ và tốc độ hội tụ của mạng được bảo đảm do thuật toán
“giảm gradient”, phụ thuộc vào việc chọn hằng số η , hằng số mc và các
ma trận trọng số khởi đầu ngẫu nhiên.
Mạng nơ ron hồi quy cục bộ làm đơn giản các thuật toán dạy. Mặt
khác, khả năng mô hình hoá đầy đủ của mỗi nơ ron cho phép kích thước
toàn bộ của mạng là nhỏ nhất. Như vậy, LRNN có ưu thế rộng hơn, nó đủ
nhận dạng hệ thống và điều khiển các hệ thống phi tuyến.
Bài toán điều khiển hệ động lực học phi tuyến ở đây sử dụng phương
pháp điều khiển thích nghi theo mô hình mẫu (MRAC) dựa trên cơ sở định
lý Stone - Weierstrass [39] và phép đo các cặp tín hiệu vào - ra của hệ thống
- 39
cần điều khiển và của mô hình mẫu. Sau đây lần lượt nghiên cứu các vấn
đề nhận dạng và điều khiển hệ thống động lực học phi tuyến ứng dụng
mạng nơ ron hồi quy cục bộ.
2.2 Vấn đề nhận dạng hệ thống dùng mạng nơ ron
2.2.1 Phương trình trạng thái của hệ
Từ phương trình không gian trạng thái của hệ m bậc tự do ở dạng vi
dx ( t )
= x ( t ) = φ[ x ( t ), u ( t )],
phân: (2.43)
dt
y(t) = ψ [x(t)],
u(t) = [u1(t), u2(t), ...,up(t)]T là p biến tín hiệu vào,
trong đó:
x(t) = [x1(t), x2(t), ...,xn(t)]T là n biến trạng thái,
y(t) = [y1(t), y2(t), ...,ym(t)]T là m biến tín hiệu ra.
Với yêu cầu thoả mãn điều kiện ổn định, điều khiển được, quan sát
được.
Nếu u(t), x(t), y(t) là các biến dạng rời rạc thì phương trình (2.43) có
thể viết như sau:
x (k + 1) = Φ[ x (k ), u (k )],
(2.44)
y(k + 1) = Ψ[x(k)].
Với hệ tuyến tính:
x (k + 1) = A.x (k ) + Bu (k ),
(2.45)
y(k + 1) = C.x(k + 1),
Φ ma trận phi tuyến bậc (nxp), Ψ véc tơ phi tuyến bậc m,
trong đó :
A, B, C các ma trận tuyến tính bậc (nxn), (nxp), (mxn).
. Với các hệ tuyến tính, phương trình (2.45) theo [39] với tín hiệu ra
yp(k+1) là tổng hợp giá trị quá khứ của các tín hiệu vào u(k-j) và tín hiệu ra
yp(k-j) được viết dạng:
- 40
n −1 m −1
yp(k+1) = ∑ α i y p (k − i) + ∑ β ju (k − j) , (2.46)
i =0 j= 0
trong đó: α i, β j các hệ số chưa biết (m ≤ n).
. Với các hệ phi tuyến phương trình (2.44) có thể viết dạng sau:
y(k ), y(k − 1),..., y(k − n + 1)
y(k+1) = f
u (k + 1), u ( k ),..., u (k − m + 1) . (2.47)
ở đây f(.) là hàm phi tuyến của y(k) và u(k). Phương trình (2.47) theo
[39] có bốn dạng biểu diễn cụ thể hơn (m ≤ n):
Dạng 1: (2.48)
n −1
yp(k+1) = ∑ α i y p (k − i) + g[u(k), u(k-1), ..., u(k-m+1)],
i =0
Dạng 2: (2.49)
m −1
yp(k+1) = f[yp(k), yp(k-1), ..., yp(k-n+1)] + ∑ βi u (k − i) ,
j= 0
Dạng 3: (2.50)
yp(k+1) = f[yp(k), yp(k-1), ..., yp(k-n+1)]
+ g[u(k), u(k-1), ..., u(k-m+1)],
Dạng 4: (2.51)
yp(k+1) =
f[yp (k), yp (k-1), ..., yp (k-n+1), u(k), u(k-1), ..., u(k-m+1)],
trong đó: u(k),yp(k) là cặp tín hiệu vào ra của hệ thống tại thời điểm k.
Bài toán nhận dạng hệ thống theo mô hình mẫu gồm hai thành phần
chính là lựa chọn mô hình nhận dạng và phương pháp hiệu chỉnh các tham
số dựa trên cơ sở sai lệch e(k) giữa tín hiệu ra của mô hình và tín hiệu ra
của hệ thống cần nhận dạng.
Mạng nơ ron có thể nhận dạng được hệ thống với bậc phi tuyến bất
kỳ. Có nhiều mô hình cơ bản nhận dạng hệ thống dùng mạng nơ ron, vấn
- 41
đề là các ma trận trọng số của mạng được chọn sao cho cùng một điều
kiện khởi tạo ban đầu, cả hệ thống và mạng có đầu ra như nhau với mọi
đầu vào hợp lệ. Sau đây sẽ phân tích một số mô hình nhận dạng tiêu biểu.
2.2.2 Mô hình nhận dạng đảo
Tín hiệu vào của
mạng là tín hiệu ra của hệ yp(k)
u(k) Hệ thống
thống, tín hiệu ra của +
TDL
mạng được so sánh với
-
(k)
tín hiệu vào của hệ thống Mạng nơ
(tín hiệu đặt) và sai lệch ron
~ sử dụng làm tín hiệu
e Hình 2.7 Mô hình nhận dạng đảo
để luyện mạng (hình 2.7). hệ thống.
Nhược điểm của mô hình là: cần xác lập mô hình đảo hợp lý và đặc
biệt với hệ phi tuyến thì có thể có trường hợp là nhiều giá trị đầu vào của
hệ thống cùng tạo ra một giá trị đầu ra của mạng như nhau thì mô hình
nhận dạng lúc này không phải là mô hình đảo.
2.2.3 Mô hình nhận dạng song song
Tín hiệu vào của hệ thống đồng thời là tín hiệu vào của mạng, tín
hiệu ra của mạng được so sánh với tín hiệu ra của hệ thống và sai lệch e
sử dụng làm tín hiệu để luyện mạng (mạng nối song song với hệ thống
như hình 2.8).
Với hệ tuyến tính phương trình (2.46) được viết cho mô hình nhận
n −1 m −1
dạng song song như sau: y p (k + 1) = ∑ α i (k ) y p (k − i) + ∑ β j (k )u (k − j) ,
ˆ
ˆ
ˆ ˆ
i =0 j= 0
(2.52)
- 42
ˆ
trong đó: α i (k )(i = 0,1,..., n − 1), β j (k )( j = 0,1,..., m − 1) là các tham số nhận
ˆ
dạng, y p (k + 1) là tín hiệu ra nhận dạng và u(k) là tín hiệu vào.
ˆ
Với sai lệch ~ = yp(k) - y p (k )
ˆ
e
Với giả thiết hệ thống
yp(k)
u(k) Hệ thống
là ổn định BIBO trong không
+
gian vào, như vậy các tín
(k)
TDL
hiệu vào, ra của hệ thống -
Mạng nơ
đều có biên cố định.
Nhược điểm ở đây là: ron
Hình 2.8 Mô hình nhận dạng
tính ổn định của mô hình
song song.
nhận dạng song song có thể
không bảo đảm nghĩa là mô hình không đảm bảo tính tương đương với hệ
thống và như vậy không thể bảo đảm được các tham số nhận dạng sẽ hội
tụ đến giá trị thực hoặc sai lệch đầu ra sẽ giảm dần đến không.
2.2.4 Mô hình nhận dạng nối tiếp - song song
ở đây mạch phản hồi được sử dụng là tín hiệu ra của hệ thống mà
không lấy tín hiệu ra của mạng.
Phương trình (2.46) cho mô hình nhận dạng nối tiếp-song song như
sau:
n −1 m −1
y p (k + 1) = ∑ α i (k ) y p (k − i) + ∑ β j (k )u (k − j) ,
ˆ
ˆ
ˆ (2.53)
i =0 j= 0
trong đó: yp(k) là tín hiệu ra của hệ thống cần nhận dạng.
Với các hệ thống phi tuyến, đã có các hệ phương trình mô tả từ (2.48)
đến (2.51). Ví dụ dạng (2.51) biểu diễn như hình 2.9 với các tín hiệu quá
khứ nhận được nhờ khối trễ TDL.
Mô hình nối tiếp - song song có ưu điểm so với mô hình song song:
- 43
Khi hệ thống được giả thiết là ổn định BIBO, tất cả các tín hiệu nhận
dạng (tín hiệu vào của mạng nhận dạng) sẽ có biên, như vậy giả sử khi
không có vòng lặp phản hồi trên hệ thống, quá trình truyền ngược tĩnh có
thể được sử dụng để hiệu chỉnh các tham số, làm giảm được chi phí quá
trình tính toán thực. Mặt khác, giả sử sai lệch đầu ra tiến đến một giá trị
rất nhỏ, mô hình nối tiếp-song song có thể được thay thế bằng mô hình
song song. Mô hình nhận dạng nối tiếp-song song này là nội dung nghiên
yp(k
cứu ứng dụng của luận án. u(k Hệ
) ) (k)
thống
+
-
Mạng nơ y (k)
( N
ron
(k) yN(k+1
)
Hình 2.9 Mô hình nhận dạng nối
tiếp-song song.
2.2.5 Ví dụ nhận dạng hệ thống dùng mạng nơ ron
2.2.5.1 Mô hình mô phỏng
Xét một cơ cấu tay Robot 2 thanh được truyền động bởi động cơ một
chiều (hình 2.10). Động cơ một chiều được cấp điện từ một bộ khuyếch
đại điện áp. Các số liệu tay robot cho trong bảng 2.1.
Từ các số liệu và theo (1.1), bỏ qua ảnh hưởng của ma sát, biến đổi và
rút gọn thu được:
y
y J2
m2
y2 l θ2 l2
1
J1
lg1 lg2
m
θ1 1 x
x2 x
z
Hình 2.10 Cơ cấu robot hai
khâu.
nguon tai.lieu . vn