Xem mẫu

  1. 24 Chương 2: Mạng nơ ron và ứng dụng trong điều khiển 2.1 Cấu trúc và luật học của mạng nơ ron 2.1.1 Mô hình một nơ ron nhân tạo Mạng nơ ron nhân tạo là dùng kỹ thuật tái tạo lại một vài chức năng tương tự bộ não con người. Việc nghiên cứu ứng dụng mạng nơ ron mở ra một hướng mới trong việc giải quyết các bài toán kỹ thuật và kinh tế, ... Trong bài toán kỹ thuật, mạng nơ ron có thể nhận dạng, điều khiển, nhận mẫu, giải quyết các bài toán tối ưu, ... và tỏ ra rất có hiệu quả. Mô hình nơ ron p1 Wi1 nhân tạo cơ bản thứ i qi ... ... trong mạng xây dựng yi ai dựa trên cấu trúc của nơ pR học ron sinh do WiR θi -1 McCulloch và Pitts đề Hỡnh 2.1 Mụ hình nơ ron thứ i. xuất và được Rosenblatt cải tiến, gọi là perceptron [36], nó có thể có nhiều đầu vào (R đầu vào) và chỉ có một đầu ra (hình 2.1). Quan hệ giữa đầu ra và các đầu vào của nơ ron thứ i: yi = ai(qi) = ai(fi(p)), (2.1) p - véc tơ biến đầu vào, trong đó: fi - hàm tổng hợp, ai - hàm chuyển đổi, yi - biến đầu ra của nơ ron thứ i, R ∑ w ij .p j − θi - tổng trọng số, qi = fi(p) = j=1 wij - trọng số liên kết giữa đầu vào thứ j với nơ ron thứ i,
  2. 25 θ i - ngưỡng của nơ ron thứ i (hằng số), Có nhiều dạng hàm tổng hợp fi(.) được dùng như: . Hàm tổng hợp tuyến tính: (hàm này rất hay được dùng) R ∑ w ij .p j − θi , fi(p) = (2.2) j=1 . Hàm bậc hai (Quadratic function): R ∑ w ij .p 2j − θi , fi(p) = (2.3) j=1 . Ngoài ra còn có các hàm hình bán cầu, hàm đa thức, v. v ... Với mục đích đơn giản, thực tế thường chọn hàm tổng hợp tuyến tính. Hàm chuyển đổi a(.) cũng có rất nhiều dạng được dùng, ví dụ một vài dạng hàm cơ bản như sau: . Hàm chuyển đổi tuyến tính (Liner function): a(q) = q, (2.4) . Hàm dấu (hàm ngưỡng: threshold function):   n u ≥ 0  1    Õ       q a(q) = sgn(q) =  (2.5) − 1    Õ            n u < 0   q . Hàm sigmoid một cực (Unipolar sigmoid function): 1 a(q) = (2.6) 1 + e −λ.q . Hàm sigmoid hai cực (Bipolar sigmoid function): 2 −1 a(q) = (2.7) 1 + e −λ.q v. v ...
  3. 26 2.1.2 Mô hình mạng nơ ron nhân tạo Mô hình mạng nơ ron được hình thành từ việc liên kết các nơ ron với nhau theo một nguyên tắc nào đó. Có rấtnhiều oại mạng và việc phân loại mạng cũng có nhiều cách: - Theo số lớp: có mạng nơ ron một lớp, mạng nơ ron nhiều lớp. - Theo cấu trúc liên kết giữa đầu vào và đầu ra: có mạng nơ ron truyền thẳng, mạng nơ ron hồi quy. - Theo tính chất làm việc: có mạng tĩnh (static network) và mạng động (dynamic network). v. v ... Phần tử gây trễ (TDL: Tapped Delay Line) là phần tử có tín hiệu ra của nó bị trễ một khoảng thời gian so với tín hiệu vào, có hai tham số trễ là thời gian trễ (bước) và bậc trễ. Phần tử này p(t) được sử dụng để lấy tín hiệu quá khứ (hình TDL 2.2) và nó là yếu tố để tạo ra các đơn vị nơ q(t) ron động lực học (Dynamic Neural Units) và Hình 2.2 Phần mạng động lực học trong hệ thống rời rạc tử TDL (mạng động). Quan hệ vào - ra như sau: q(t) = w.p(t-i.ô), (2.8) với w là trọng số của TDL, i là bậc trễ, i = 0, 1, ..., n, ô là thời gian trễ một bậc. Một số liên kết cơ bản của mạng nơ ron được trình bày trên hình 2.3. Mạng một lớp truyền thẳng (single-layer feedforward network): Các nơ ron cùng nhận đồng thời tín hiệu vào như nhau và có chức năng giống nhau tạo thành một lớp của mạng nơ ron, số nơ ron trong một lớp chính là số đầu ra của lớp đó. Mạng nơ ron chỉ có một lớp gọi là mạng nơ ron một lớp. Với mạng nơ ron một lớp truyền thẳng (ví dụ có R đầu
  4. 27 vào, S đầu ra), ma trận trọng số W sẽ có S hàng, R cột. Trong đó phần tử wij là trọng số liên kết giữa nơ ron thứ i và đầu vào thứ j, có các hàm tổng hợp fi, hàm chuyển đổi ai (các hàm này thường chọn giống nhau cho mỗi lớp: ai = a, fi = f). Quan hệ vào - ra có dạng sau (hình 2.3a): y = a(f(x)), (2.9) y = [y1, y2, ..., yS]T là véc tơ biến tín hiệu ra, trong đó: x = [x1, x2, ..., xS]T là véc tơ tín hiệu vào.
  5. 28 w1,1 y1 x1 x1 y1 w1,R y2 x2 x2 w . ... ... 2,R xR .. wS,R xR y2 Lớp vào Lớ p ẩ n yS Lớp ra a) b) x1 y1 y1 x1 x2 y2 y2 x2 ... .. . ... . xR .. xR c) yS Hình 2.3 Một số d) ng dạ x1 y1 liên kết của mạng. a) mạng một lớp truyx2 ền y2 thẳng, ... ... b) mạng nhiều lớp x yS R truyền thẳng, e) c) nút tự hồi quy, Mạng nhiều lớp truyền thẳng (multi-layers feedforward network): Gồm nhiều lớp (N lớp) ghép liên tiếp với nhau, đầu ra của lớp này được nối với đầu vào của lớp ngay sau nó. Lớp đầu tiên là lớp vào (input layer) có R đầu vào, S1 đầu ra. Lớp cuối cùng là lớp ra (output layer) có SN-1 đầu vào, SN ( gọi tắt là S) đầu ra.
  6. 29 Giữa chúng có thể có một số lớp cũng nối liên tiếp nhau gọi là các lớp ẩn (hidden layers), chúng đóng vai trò trung gian trong mạng, không tiếp xúc trực tiếp với bên ngoài. Mỗi lớp ẩn (ví dụ lớp thứ k) có S đầu vào, S k-1 k đầu ra. Các nơ ron trong một lớp được nối theo cấu trúc ghép nối hoàn toàn, nghĩa là mỗi nơ ron sẽ được nối với tất cả các tín hiệu vào của lớp đó và các nơ ron trong cùng lớp có cấu trúc liên kết hoàn toàn giống nhau. Quan hệ vào - ra của mạng có dạng sau (hình 2.3b): yS = aN(fN(aN-1(...(a1(f1(x)))...))), (2.10) yS = [y1, y2, ..., yS]T là véc tơ biến tín hiệu ra, trong đó: ak, fk (k=1, ..., N) hàm kích hoạt và hàm tổng hợp của lớp thứ k. Mạng nơ ron hồi quy (recurrent network): Mạng nơ ron hồi quy còn gọi là mạng phản hồi (feedback network), là loại mạng mà tín hiệu ra của nơ ron được phản hồi ngược về làm tín hiệu vào cho các nơ ron lớp trước nó hoặc cùng lớp đó tạo thành các vòng kín (hình 2.3d, e). Tín hiệu phản hồi có thể có phần tử TDL. Loại mạng này sẽ được xem xét kỹ ở phần sau, đó là mạng nơ ron hồi quy cục bộ. 2.1.3 Các luật học Việc “học” của mạng nơ ron là để tìm được chính xác giá trị ma trận trọng số liên kết W của các nơ ron và xác định được cấu trúc cụ thể của mạng để giải quyết được bài toán cụ thể. Có hai kiểu học là học cấu trúc và học thông số: - Học cấu trúc (Structure learning): Xác định cấu trúc của mạng bao gồm số lượng nút (nơ ron) trong mỗi lớp và giá trị của các ma trận trọng số W của mạng (số lớp không thay đổi).
  7. 30 - Học thông số (Parameter learning): Tìm được chính xác giá trị của các ma trận trọng số W ứng với cấu trúc (cố định) của mạng nơ ron đã cho. Có ba phương pháp học: . Học có giám sát (Supervised learning): Tín hiệu giám sát là những thông tin mong muốn d được cung cấp từ bên ngoài mà đầu ra y của mạng nơ ron cần phải đạt được (hình 2.4 a). . Học củng cố (Reinforcement learning): Thông tin cung cấp từ bên ngoài d (tín hiệu củng cố) mang tính định hướng cho quá trình học (cho biết tín hiệu ra của mạng đúng hay sai) (hình 2.4 b). . Học không giám sát (Unsupervised learning): Quá trình học không có bất kỳ thông tin nào từ bên ngoài để giám sát, đó là quá trình tự cấu trúc của mạng. Mạng phải tự xác định các cặp dữ liệu mẫu (dữ liệu vào, ra), các tính chất, các mối quan hệ để tạo được ma trận W mong muốn (hình 2.4 c). Dạng chung của luật học thông số là xác định giá trị cần điều chỉnh ∆ Wi cho véc tơ trọng số Wi: Với mạng rời rạc: ∆ Wi(t) = η .r.x(t), (2.11) Trong đó: η là số dương xác định tốc độ học (hằng số học), r là tín hiệu học, r = fr(Wi, x, di). (2.12) Lúc đó giá trị véc tơ trọng số tại thời điểm (t+1) là: Wi(t+1) = Wi(t) + η .fr(Wi, x(t), di).x(t). (2.13) dWi ( t ) = η .r.x(t), Với mạng liên tục: (2.14) dt Có nhiều thuật toán học để xác định ∆ Wi(t) được đưa ra. Một trong những thuật toán học có giám sát cho mạng nơ ron được Widrow-Hoff đề nghị là thuật toán “giảm gradient” (gradient descent), sử dụng cực tiểu sai lệch trung bình bình phương bằng việc thêm vào các trọng số liên kết mạng một giá trị theo hướng ngược với hướng tức thời của gradient. Thuật
  8. 31 toán sử dụng phương pháp sai lệch trung bình bình phương nhỏ nhất (LMS: Least Mean Squares) hoặc gọi là phương pháp delta. Hàm chi phí chuẩn sử dụng trong mạng nơ ron, sai lệch trung bình bình phương, của thuật toán này là định nghĩa một hàm đạt cực tiểu E như sau: 1 Nl E = ∑ (d n (k ) − y n (k )) → min, L 2 (2.15) 2 n =1 ở đây: dn(k) là đầu ra mong muốn thứ n tại thời điểm t và L là số lớp. Mạng nơ ron Mạng nơ ron x y x y W W e Khối phát tín hiệu sai lệch d (a) (c) Mạng nơ ron y W x e Khối phát tín d hiệu nhận xét (b) Hình 2.4 Các phương pháp học của mạng nơ ron. 2.1.4 Mạng nơ ron hồi quy cục bộ ở đây chúng ta quan tâm đến mạng nơ ron hồi quy cục bộ (Local Recurrent Neural Networks: TDL LRNN) có cấu trúc như hình y1 x1 IW1,1 2.5: LW TDL 1,1 IWS1,1 y2 x2 TDL IW1,R ... IWS1,R LWS2,S1 xR lớp vào các lớp ẩn lớp ra
  9. 32 Mạng có R tín hiệu vào, S tín hiệu ra và có thể gồm nhiều lớp ẩn (gọi là: lớp vào, các lớp ẩn và lớp ra): Lớp vào có R tín hiệu vào (véc tơ x), Lớp ẩn thứ i (i = 1, ..., n-1) có Si nơ ron hồi quy và có lấy tín hiệu quá khứ qua khối trễ TDL, Lớp ra có Sn nơ ron và truyền thẳng tín hiệu cho S đầu ra (véc tơ y), S=Sn. Hàm chuyển đổi cho các lớp có thể giống nhau hoặc khác nhau, tuy nhiên nếu hai lớp kề nhau có hàm chuyển đổi tuyến tính thì không cần thiết do có thể thay bằng một lớp tuyến tính để giảm bớt độ phức tạp của mạng khi thiết kế. Hàm tổng hợp cho các lớp là hàm tuyến tính. Hàm truyền của mạng có dạng (2.16): q1 Lớp ẩn thứ nhất: Y (k ) = a1 (IW1.X(k ) + ∑ L W1.Y (k − j) + θ1 ) (2.16a) 1 j 1 j =1 ... qp (k ) + ∑ LjWp .Y p (k − j) + θp ) (2.16b) p −1 p Lớp ẩn thứ p: Y (k ) = a i (LWp .Y j =1 ... Lớp ẩn thứ n (lớp ra): Y = Y n (k ) = a n (LWn .Y n −1 (k ) + θ n ) (2.16c) Trong đó: IW1 ma trận trọng số lớp vào, qi bậc trễ của lớp thứ i, tương ứng ma trận trọng số LjWi, j = 1, 2, ..., qi, LjWi các ma trận trọng số của lớp ẩn thứ i hồi quy, LWi ma trận trọng số truyền thẳng. Nhờ khả năng “học” mà mạng được sử dụng để nhận dạng rất hiệu quả các hệ thống có mức độ phi tuyến cao và sau đó xây dựng các luật thích hợp để điều khiển hệ thống theo ý muốn.
  10. 33 Thuật toán học của LRNN là thuật toán “giảm gradient” còn gọi là phương pháp delta, là phương pháp ứng dụng cho mạng một lớp, được mở rộng bằng cách thêm hằng số động lượng (momentum) và tổng quát hoá bằng cách sử dụng lan truyền ngược sai lệch (backpropagation) để ứng dụng cho mạng nhiều lớp và mạng hồi quy (Gradient Descent with Momentum Backpropagation: GDMB). Thuật toán học “giảm gradient” (GDMB) ứng dụng rất tốt cho mạng nơ ron để giải quyết nhiều bài toán thực tế kỹ thuật, nhất là các bài toán nhận dạng và điều khiển hệ thống với thông số chưa biết. Với thuật toán này, giá trị ∆ Wi(t) có thể xác định theo (2.17), ∆ Wi(t) = mc.∆ Wi(t-1) + (1-mc).η . fr(Wi, x, di).x(t), (2.17) trong đó: mc (momentum constant) là hằng số động lượng, (0 < mc < 1). Sự ổn định của phương pháp lan truyền ngược sai lệch được bảo đảm bằng định lý sau: Định lý ổn định của luật học RBP: Nếu giả thiết mạng nơ ron lan truyền ngược hồi quy (mạng RBP: Recurrent Back-Propagation) với phương trình mô tả:   τyi = -yi + a  ∑ w ij yi + x i   (2.18a)   j  sẽ tồn tại trạng thái ổn định:   yi = a(hi) = a  ∑ w ij yi + x i  , (2.18b)   j  thoả mãn yi = 0 , thì mạng lan truyền ngược sai lệch (mạng EBP: Error  Back-Propagation) tương ứng của nó mô tả theo phương trình: τz i = −z i + ∑ a ′(h p ) w pi z p + E i  (2.19a) p cũng có trạng thái ổn định như mô tả:
  11. 34 z i − ∑ a ′( h p ) w pi z p = E i . (2.19b) p Nói cách khác, nếu phương trình (2.18b) là trạng thái ổn định của (2.18a), thì phương trình (2.19b) là trạng thái ổn định của (2.19a). Chứng minh: xem [36] Để tìm hiểu thuật toán học chi tiết, ta xét một nơ ron thứ i trong lớp ẩn thứ p từ (2.16b) bỏ qua chỉ số i và ký hiệu L cho đơn giản như hình 2.6: qi Y p (k ) = a ( W.Y p−1 (k ) + ∑ j W .Y p ( k − j) + θp ) . (2.20) j=1 Tham số của vế phải gồm ba thành phần là ngưỡng θ p và p −1 Xp(k) = W .Y (k ) đóng vai trò tín hiệu vào từ lớp p - 1, qi X (k)= ∑ W.Y (k − j) đóng vai trò tín hiệu phản hồi về từ lớp j p p ph j=1 p, Mục tiêu của mạng học là điều j Xpph(k W chỉnh W, jW và θ p sao a(.) X (k) Σ n(k) cho hàm chi phí E Wi Yp(k) p- p Y theo (2.15) đạt giá trị 1 (k) nhỏ nhất. Từ (2.20) θp để đơn giản, chỉ xét Hình 2.6 Một nơ ron truyền ngược của hồi quy. tín hiệu Xp và θ p thì Yp(k) sẽ có dạng như (2.21): Y p (k ) = a ( W p .Y p−1 + θp ) = a (n ) . (2.21) Lấy đạo hàm riêng của E (2.15) theo W và θ p và hiệu chỉnh trọng số và ngưỡng tại bước lặp thứ k + 1 theo công thức sau:
  12. 35 ∂E Wipj (k + 1) = Wipj (k ) − η , (2.22) , , ∂Wipj , ∂E θip (k + 1) = θip (k ) − η , (2.23) ∂θip ở đây E là hàm gián tiếp của các trọng số, do đó sử dụng luật dây chuyền thông qua biến trung gian n dạng: ∂f (n ( W )) ∂f ( n ) ∂n ( W ) = x . (2.24) ∂W ∂n ∂W Để tính đạo hàm riêng của E trong (2.22) và (2.23), tín hiệu ra của nơ ron thứ i trong lớp p được tính theo công thức: Sp −1 ∑ Wip, j y pj−1 + θ ip , nip = (2.25) j=1 ∂n ip ∂n p = y p−1 và ip = 1 . trong đó: j ∂Wipj ∂θi , ∂E ∂E ∂n ip ∂E = p y p−1 , = px Từ đó ta có: (2.26) j ∂Wi , j ∂n i ∂Wi , j ∂n i p p ∂E ∂E ∂n ip ∂E = = x . (2.27) ∂θip ∂n ip ∂θip ∂n ip ∂E = s ip là độ nhạy (sensitivity) của hàm E đối với sự biến đổi Đặt ∂n i p của tín hiệu vào n của nơ ron thứ i trong lớp thứ p (hình 2.6). Khi đó các công thức (2.22) và (2.23) sẽ là: Wipj (k + 1) = Wipj (k ) − ηSp y p−1 , (2.28) , , jj θip ( k + 1) = θip (k ) − ηSp . (2.29) j Ký hiệu ma trận độ nhạy của lớp thứ p:
  13. 36 T  ∂E ∂E ∂E  Sp =  p , p ,..., p  . (2.30)  ∂n1 ∂n 2 ∂n S p    Và dạng ma trận của (2.28) và (2.29) sẽ là: Wp(k+1) = Wp(k) - η .Sp.(yp-1)T, (2.31) θ p(k+1) = θ p(k) - η .Sp, (2.32) trong đó yp-1 là ma trận tín hiệu ra của lớp p-1. Lúc này bài toán tính đạo hàm riêng của hàm E chuyển thành bài toán tính độ nhạy. Thuật toán học lan truyền ngược liên quan đến bài toán này. Độ nhạy của lớp p sẽ được tính toán từ độ nhạy của lớp p+1 đã được tính trước đó. Từ biến đổi: S  p ∂ ∑ Wipk+1 y p + θip+1   k =1 , k  ∂n j  = W p+1 ∂y j , p +1 p (2.33)  = ∂n p ∂n p ∂n p i,j j j j tín hiệu ra của nơ ron thứ j lớp p theo hàm chuyển đổi a của biến vào n: yjp = ap(njp). (2.34) Thay vào ma trận Jacobi (2.33) ta được: ∂n p+1 ∂a p (n p ) = Wi , j = Wipj+1a 'p (n p ) p +1 j j (2.35) ∂n j ∂n j , j p p và viết dưới dạng ma trận: ∂n p+1 = W p+1A'p (n p ) , (2.36) ∂n p với ký hiệu các ma trận: a 'p ( n1p ) 0 0    0 a ' (n p ) 0 p  A' (n ) =  2 p p (2.37)      p 0 0  a ' p ( n Sp )   
  14. 37  ∂n1 +1 ∂n1 +1  ∂n1 +1 p p p   ∂n p ∂n Sp  ∂n p p  p1+1  2 p +1 ∂n p+1   ∂n 2 ∂n 2 ∂n p+1 2  =  ∂n1 ∂n Sp  . ∂n p p p và (2.38)   ∂n p 2     ∂n pp+11 ∂n Sp++11  + p+ ∂n Sp+11 p p p S   ∂n1 ∂n p ∂n Sp    2 Sử dụng luật dây chuyền: T ∂E  ∂n p+1  ∂E s = p =  p  . p+1 = A'p (n p ).( W p+1 ) T .s p+1 p (2.39) ∂n  ∂n  ∂n là công thức thể hiện sự lan truyền ngược độ nhạy. Và độ nhạy ban đầu tại nơ ron thứ i của lớp ra sS: sS ∂ ∑ (d j − y j ) 2 siS = ∂E ∂y i , (2.40) j=1 = = − (d j − y j ) ∂n S S S ∂n i ∂n i i với yi là tín hiệu ra của nơ ron lớp S: ∂y i ∂yS ∂a S ( n S ) = iS = = a 'S ( n S ) . i (2.41) ∂n i ∂n i ∂n i i S S Thay vào (2.39) ta được: siS = -(di - yi)a’S(niS). (2.42a) Dạng ma trận của sS sẽ là: SS = -A’S(nS)(d-y). (2.42b) Quá trình học của tín hiệu Xpph cũng tương tự tín hiệu Xp ở trên, chỉ thay tín hiệu Yp(k) bằng Yp(k-jj) với jj = 1, ..., qi ; qi là bậc trễ. Các bước thực hiện thuật toán học: Bước 1: Cung cấp tập dữ liệu dạy gồm k cặp mẫu tín hiệu vào và kết quả ra, tức là tập {(Pk, yk)}.
  15. 38 Bước 2: Chọn các giá trị ban đầu bất kỳ cho các ma trận trọng số và véc tơ ngưỡng của mạng, chọn η , mc. Bước 3: Lần lượt cho các mẫu Pk lan truyền qua mạng từ lớp vào đến lớp ra. Tính toán tín hiệu ra yp cho từng lớp theo trình tự: y0 = Pk, ... yp theo (2.20), p = 0, 1, ..., S-1: chỉ số lớp, y = yS (tín hiệu ra của mạng), Bước 4: Tính độ nhạy lớp ra SS theo (2.42b), Bước 5: Dùng công thức lan truyền ngược độ nhạy (2.39) để tính các Sp, Bước 6: Từ các Sp tính toán được, hiệu chỉnh các ma trận trọng số và véc tơ ngưỡng của từng lớp, Bước 7: Lặp lại quá trình (từ bước 3) với các dữ liệu dạy khác cho đến khi hết tập dữ liệu dạy. (gọi là một lần lặp: epoch), Quá trình lặp trên (từ bước 3 đến bước 7) được thực hiện cho đến khi sai số đầu ra đạt đến giá trị chấp nhận được. Sự hội tụ và tốc độ hội tụ của mạng được bảo đảm do thuật toán “giảm gradient”, phụ thuộc vào việc chọn hằng số η , hằng số mc và các ma trận trọng số khởi đầu ngẫu nhiên. Mạng nơ ron hồi quy cục bộ làm đơn giản các thuật toán dạy. Mặt khác, khả năng mô hình hoá đầy đủ của mỗi nơ ron cho phép kích thước toàn bộ của mạng là nhỏ nhất. Như vậy, LRNN có ưu thế rộng hơn, nó đủ nhận dạng hệ thống và điều khiển các hệ thống phi tuyến. Bài toán điều khiển hệ động lực học phi tuyến ở đây sử dụng phương pháp điều khiển thích nghi theo mô hình mẫu (MRAC) dựa trên cơ sở định lý Stone - Weierstrass [39] và phép đo các cặp tín hiệu vào - ra của hệ thống
  16. 39 cần điều khiển và của mô hình mẫu. Sau đây lần lượt nghiên cứu các vấn đề nhận dạng và điều khiển hệ thống động lực học phi tuyến ứng dụng mạng nơ ron hồi quy cục bộ. 2.2 Vấn đề nhận dạng hệ thống dùng mạng nơ ron 2.2.1 Phương trình trạng thái của hệ Từ phương trình không gian trạng thái của hệ m bậc tự do ở dạng vi dx ( t ) = x ( t ) = φ[ x ( t ), u ( t )],  phân: (2.43) dt y(t) = ψ [x(t)], u(t) = [u1(t), u2(t), ...,up(t)]T là p biến tín hiệu vào, trong đó: x(t) = [x1(t), x2(t), ...,xn(t)]T là n biến trạng thái, y(t) = [y1(t), y2(t), ...,ym(t)]T là m biến tín hiệu ra. Với yêu cầu thoả mãn điều kiện ổn định, điều khiển được, quan sát được. Nếu u(t), x(t), y(t) là các biến dạng rời rạc thì phương trình (2.43) có thể viết như sau: x (k + 1) = Φ[ x (k ), u (k )], (2.44) y(k + 1) = Ψ[x(k)]. Với hệ tuyến tính: x (k + 1) = A.x (k ) + Bu (k ), (2.45) y(k + 1) = C.x(k + 1), Φ ma trận phi tuyến bậc (nxp), Ψ véc tơ phi tuyến bậc m, trong đó : A, B, C các ma trận tuyến tính bậc (nxn), (nxp), (mxn). . Với các hệ tuyến tính, phương trình (2.45) theo [39] với tín hiệu ra yp(k+1) là tổng hợp giá trị quá khứ của các tín hiệu vào u(k-j) và tín hiệu ra yp(k-j) được viết dạng:
  17. 40 n −1 m −1 yp(k+1) = ∑ α i y p (k − i) + ∑ β ju (k − j) , (2.46) i =0 j= 0 trong đó: α i, β j các hệ số chưa biết (m ≤ n). . Với các hệ phi tuyến phương trình (2.44) có thể viết dạng sau:  y(k ), y(k − 1),..., y(k − n + 1)  y(k+1) = f   u (k + 1), u ( k ),..., u (k − m + 1)  . (2.47)    ở đây f(.) là hàm phi tuyến của y(k) và u(k). Phương trình (2.47) theo [39] có bốn dạng biểu diễn cụ thể hơn (m ≤ n): Dạng 1: (2.48) n −1 yp(k+1) = ∑ α i y p (k − i) + g[u(k), u(k-1), ..., u(k-m+1)], i =0 Dạng 2: (2.49) m −1 yp(k+1) = f[yp(k), yp(k-1), ..., yp(k-n+1)] + ∑ βi u (k − i) , j= 0 Dạng 3: (2.50) yp(k+1) = f[yp(k), yp(k-1), ..., yp(k-n+1)] + g[u(k), u(k-1), ..., u(k-m+1)], Dạng 4: (2.51) yp(k+1) = f[yp (k), yp (k-1), ..., yp (k-n+1), u(k), u(k-1), ..., u(k-m+1)], trong đó: u(k),yp(k) là cặp tín hiệu vào ra của hệ thống tại thời điểm k. Bài toán nhận dạng hệ thống theo mô hình mẫu gồm hai thành phần chính là lựa chọn mô hình nhận dạng và phương pháp hiệu chỉnh các tham số dựa trên cơ sở sai lệch e(k) giữa tín hiệu ra của mô hình và tín hiệu ra của hệ thống cần nhận dạng. Mạng nơ ron có thể nhận dạng được hệ thống với bậc phi tuyến bất kỳ. Có nhiều mô hình cơ bản nhận dạng hệ thống dùng mạng nơ ron, vấn
  18. 41 đề là các ma trận trọng số của mạng được chọn sao cho cùng một điều kiện khởi tạo ban đầu, cả hệ thống và mạng có đầu ra như nhau với mọi đầu vào hợp lệ. Sau đây sẽ phân tích một số mô hình nhận dạng tiêu biểu. 2.2.2 Mô hình nhận dạng đảo Tín hiệu vào của mạng là tín hiệu ra của hệ yp(k) u(k) Hệ thống thống, tín hiệu ra của + TDL mạng được so sánh với - (k) tín hiệu vào của hệ thống Mạng nơ (tín hiệu đặt) và sai lệch ron ~ sử dụng làm tín hiệu e Hình 2.7 Mô hình nhận dạng đảo để luyện mạng (hình 2.7). hệ thống. Nhược điểm của mô hình là: cần xác lập mô hình đảo hợp lý và đặc biệt với hệ phi tuyến thì có thể có trường hợp là nhiều giá trị đầu vào của hệ thống cùng tạo ra một giá trị đầu ra của mạng như nhau thì mô hình nhận dạng lúc này không phải là mô hình đảo. 2.2.3 Mô hình nhận dạng song song Tín hiệu vào của hệ thống đồng thời là tín hiệu vào của mạng, tín hiệu ra của mạng được so sánh với tín hiệu ra của hệ thống và sai lệch e sử dụng làm tín hiệu để luyện mạng (mạng nối song song với hệ thống như hình 2.8). Với hệ tuyến tính phương trình (2.46) được viết cho mô hình nhận n −1 m −1 dạng song song như sau: y p (k + 1) = ∑ α i (k ) y p (k − i) + ∑ β j (k )u (k − j) , ˆ ˆ ˆ ˆ i =0 j= 0 (2.52)
  19. 42 ˆ trong đó: α i (k )(i = 0,1,..., n − 1), β j (k )( j = 0,1,..., m − 1) là các tham số nhận ˆ dạng, y p (k + 1) là tín hiệu ra nhận dạng và u(k) là tín hiệu vào. ˆ Với sai lệch ~ = yp(k) - y p (k ) ˆ e Với giả thiết hệ thống yp(k) u(k) Hệ thống là ổn định BIBO trong không + gian vào, như vậy các tín (k) TDL hiệu vào, ra của hệ thống - Mạng nơ đều có biên cố định. Nhược điểm ở đây là: ron Hình 2.8 Mô hình nhận dạng tính ổn định của mô hình song song. nhận dạng song song có thể không bảo đảm nghĩa là mô hình không đảm bảo tính tương đương với hệ thống và như vậy không thể bảo đảm được các tham số nhận dạng sẽ hội tụ đến giá trị thực hoặc sai lệch đầu ra sẽ giảm dần đến không. 2.2.4 Mô hình nhận dạng nối tiếp - song song ở đây mạch phản hồi được sử dụng là tín hiệu ra của hệ thống mà không lấy tín hiệu ra của mạng. Phương trình (2.46) cho mô hình nhận dạng nối tiếp-song song như sau: n −1 m −1 y p (k + 1) = ∑ α i (k ) y p (k − i) + ∑ β j (k )u (k − j) , ˆ ˆ ˆ (2.53) i =0 j= 0 trong đó: yp(k) là tín hiệu ra của hệ thống cần nhận dạng. Với các hệ thống phi tuyến, đã có các hệ phương trình mô tả từ (2.48) đến (2.51). Ví dụ dạng (2.51) biểu diễn như hình 2.9 với các tín hiệu quá khứ nhận được nhờ khối trễ TDL. Mô hình nối tiếp - song song có ưu điểm so với mô hình song song:
  20. 43 Khi hệ thống được giả thiết là ổn định BIBO, tất cả các tín hiệu nhận dạng (tín hiệu vào của mạng nhận dạng) sẽ có biên, như vậy giả sử khi không có vòng lặp phản hồi trên hệ thống, quá trình truyền ngược tĩnh có thể được sử dụng để hiệu chỉnh các tham số, làm giảm được chi phí quá trình tính toán thực. Mặt khác, giả sử sai lệch đầu ra tiến đến một giá trị rất nhỏ, mô hình nối tiếp-song song có thể được thay thế bằng mô hình song song. Mô hình nhận dạng nối tiếp-song song này là nội dung nghiên yp(k cứu ứng dụng của luận án. u(k Hệ ) ) (k) thống + - Mạng nơ y (k) ( N ron (k) yN(k+1 ) Hình 2.9 Mô hình nhận dạng nối tiếp-song song. 2.2.5 Ví dụ nhận dạng hệ thống dùng mạng nơ ron 2.2.5.1 Mô hình mô phỏng Xét một cơ cấu tay Robot 2 thanh được truyền động bởi động cơ một chiều (hình 2.10). Động cơ một chiều được cấp điện từ một bộ khuyếch đại điện áp. Các số liệu tay robot cho trong bảng 2.1. Từ các số liệu và theo (1.1), bỏ qua ảnh hưởng của ma sát, biến đổi và rút gọn thu được: y y J2 m2 y2 l θ2 l2 1 J1 lg1 lg2 m θ1 1 x x2 x z Hình 2.10 Cơ cấu robot hai khâu.
nguon tai.lieu . vn