Xem mẫu

  1. TẠP CHÍ PHÁT TRIỂN KH&CN, TẬP 11, SỐ 06 - 2008 SAI SỐ BAYES VÀ KHOẢNG CÁCH GIỮA HAI HÀM MẬT ĐỘ XÁC SUẤT TRONG PHÂN LOẠI HAI TỔNG THỂ Võ Văn Tài(1), Phạm Gia Thụ(2), Tô Anh Dũng(3) (1) Trường Đại học Cần Thơ (2)Trường Đại học Moncton, Canada (3)Trường Đại học Khoa học Tự nhiên, ĐHQG-HCM (Bài nhận ngày 11 tháng 06 năm 2007, hoàn chỉnh sửa chữa ngày 18 tháng 09 năm 2007) TÓM TẮT: Bài báo quan tâm đến sai số trong phân loại hai tổng thể H1 và H2 bằng phương pháp Bayes. Thiết lập hàm mật độ xác suất cho tổng của hai loại sai lầm trong phân loại khi giả sử mỗi sai lầm có hàm mật độ xác suất trên (0,1/4), từ đó xác định khoảng cách L1 giữa hai hàm mật độ xác suất theo Lissack và Fu. Các kết quả được xem xét cụ thể cho các phân phối chuẩn, mũ và beta. Từ khóa: Sai số Bayes, khoảng cách L1, phân phối chuẩn, mũ, beta. 1. GIỚI THIỆU Trong thực tế có nhiều vấn đề đòi hỏi chúng ta phải giải quyết bài toán phân loại hai tổng thể H1 và H2. Có nhiều cách khác nhau để giải quyết bài toán phân loại này như kiểu phân loại dựa vào khoảng cách Metric đã được đề cập bởi Forgy (1965), Mac Queen (1967), E.Dilay (1972). Đó cũng là phân tích phân biệt của R.A. Fisher (1936), P.C. Mahalanobis (1936) (xem [5] ). Các phương pháp này có nhược điểm là không xác định được xác suất của sai lầm trong phân loại. Một phương pháp phân loại khác dựa trên hàm mật độ xác suất của hai tổng thể, đó là phương pháp Bayes. Phương pháp này có thể tính được xác suất sai lầm tối thiểu trong phân loại. Giả sử trên hai tổng thể ta quan sát biến ngẫu nhiên X, gọi f1(x), f2(x) là hàm mật độ xác suất của hai tổng thể. Nếu ta không quan tâm đến xác suất tiền nghiệm v của H1 thì sai số ∫ Bayes được xác định Pe = min{ f 1 ( x ),( 1 − f 2 ( x )}dx , và nếu quan tâm đến v thì R ∫ Pe = min{ v. f 1 ( x ),( 1 − v ) f 2 ( x )}dx . Pe đã được chứng minh là xác suất sai lầm nhỏ nhất R trong phân loại. Như vậy phương pháp Bayes đã giải quyết được vấn đề quan trọng trong lý thuyết phân loại, đó là việc tính sai số trong phân loại. Tuy nhiên, trong thực tế việc tính kết quả cụ thể gặp nhiều khó khăn, bởi việc xác định hàm mật độ xác suất, việc giải phương trình và việc tính các tích phân. Trong bài viết này chúng tôi quan tâm đến việc xác định sai số 1 ) , từ đó xác Bayes, tìm hàm mật độ xác suất cho tổng của hai loại sai lầm trên khoảng (0, 4 định khoảng cách L1 của hai hàm mật độ theo Lissack và Fu (1976). Các vấn đề được xem xét chi tiết cho phân phối chuẫn, phân phối mũ và phân phối Beta. 2. SAI SỐ BAYES TRONG PHÂN LOẠI HAI TỔNG THỂ 2.1.Hai tổng thể với hàm mật độ xác suất f1(x) và f2(x) có một đỉnh 2.1.1.Khi không quan tâm đến xác suất tiên nghiệm v của H1 Trang 23
  2. Science & Technology Development, Vol 11, No.06 - 2008 Phương trình f1(x) - f2(x) = 0 có thể có một nghiệm hoặc nhiều nghiệm. Giả sử f1(x) và f2(x) là hàm số chỉ có một đỉnh thì phương trình trên nếu có nghiệm chỉ có thể có một nghiệm hoặc hai nghiệm. Nếu phương trình trên có một nghiệm x0 thì ta có phân tích nhận dạng như sau: một phần tử với quan sát y được xếp vào H1 nếu y ≤ x0 và xếp vào H2 nếu y > x0. Đặt h(x) = min{f1(x), f2(x)}, khi đó: ∫ h( x)dx τ = P(H2|H1) = x > x0 : xác suất phân loại một phần tử vào H2 khi thật sự nó thuộc H1. ∫ h( x)dx δ = P(H1|H2) = x ≤ x0 : xác suất phân loại một phần tử vào H1 khi thật sự nó thuộc H2. Nếu phương trình có hai nghiệm x1 và x2 (giả sử x1 < x2) thì một phần tử với quan sát y sẽ được xếp vào H1 nếu x1 ≤ y ≤ x 2 và xếp vào H2 nếu y ∉ [ x1 , x 2 ] . Khi đó: ∫ h( x )dx ∫ h( x )dx τ= δ= {x > x 2 }∪{x < x1 } x1 ≤ x ≤ x2 và Trong cả hai trường hợp ta có xác suất của phân loại sai lầm là ε = Pe = τ + δ . Chúng ta chứng minh được bất kỳ sự chọn lựa nào khác x0 hoặc x1 và x2 trong phân tích nhận dạng đều dẫn đến một xác suất sai lầm lớn hơn Pe, nghĩa là phân loại Bayes có xác suất sai lầm tối thiểu. 2.1.2.Khi quan tâm đến xác suất tiên nghiệm v (hằng số) của H1 Đặt k1(x) = vf1(x), k2 = (1-v)f2(x), khi đó phương trình f1 ( x) 1 −ν = ln ν f 2 ( x) k1(x) = k2(x) hay có thể có một nghiệm x'0 hoặc hai nghiệm x'1 và x'2. Phân tích nhận dạng được xác định như trường hợp a). Khi đó xác suất sai lầm trong phân loại trở thành τ 1 và δ 1 với τ 1 = ∫ k1 ( x )dx δ 1 = ∫ k 2 ( x )dx R1 R2 và trong đó R1 = {x | k1(x) ≥ k2(x) }và R2 = {x | k1(x)< k2(x) }. Miền R1 và R2 được xác định từ x'0 hoặc x'1 và x'2 ở trên. Khi đó xác suất sai lầm trong phân loại Pe = τ 1 + δ 1 cũng là nhỏ nhất. 1 Khi xác suất tiên nghiệm trong phân loại hai tổng thể là như nhau v = 2 thì 1 1 ∫ ∫ τ1 = δ1 = h( x )dx h( x )dx 2 {x > x }∪{x < x } 2 x ≤ x≤ x và 2 1 1 2 Pe xác định ở trên cũng là xác suất sai lầm tối thiểu. 2.1.3.Khi v là biến ngẫu nhiên với hàm mật độ xác suất tiên nghiệm biết trước Phân tích nhận dạng và sai số Bayes trong trường hợp này được xác định như trường hợp b) bằng việc thay v bởi kỳ vọng của phân phối tiên nghiệm của v. Trang 24
  3. TẠP CHÍ PHÁT TRIỂN KH&CN, TẬP 11, SỐ 06 - 2008 2.1.4.Trường hợp không có sai lầm ( ε = τ = δ = 0 ) Trường hợp này xảy ra khi f1(x) và f2(x) không cắt nhau, khi đó ta có thể ước lượng tỷ lệ của H1 trong tổng thể H 1 ∪ H 2 bằng cách giả sử tỷ lệ này ban đầu có phân phối tiên nghiệm Beta và lấy một mẫu từ tổng thể chung qua định lý dưới đây. Định lý 1: Lấy n phần tử quan sát từ tổng thể trộn H 1 ∪ H 2 . Gọi Xi là đại lượng ngẫu nhiên ứng với quan sát thứ i mà Xi = 1 nếu phần tử quan sát thuộc H1 và Xi = 0 nếu phần tử quan sát không thuộc H1. Giả sử P (Xi = 1) = η và η có phân phối tiền nghiệm Beta ( α , β ) , khi đó ta có các kết quả sau: 1) Hàm mật độ xác suất hậu nghiệm của η là n ∑X y= ϕ ( n ) (η ) = Beta(η , α + y, β + n − y ) trong đó i (1) i =1 2) Kỳ vọng hậu nghiệm của η là α+y μ ( n ) (η ) = α +β +n (2) 3) Phương sai hậu nghiệm của η là (α + y )( β + n − y ) Var ( n ) (η ) = (α + β + n) 2 (α + β + n + 1) (3) Đây là kết quả vận dụng định lý 1 ( [2], trang 321) trong phân loại. Ví dụ 1: Giả sử η không tính được chính xác, nhưng nó có phân phối tiên nghiệm Beta(6,20). Thực hiện một mẫu gồm 16 quan sát từ hai tổng thể H1 và H2 ta thấy có 4 phần tử thuộc H1 và 12 phần tử thuộc H2, khi đó: Hàm mật độ xác suất của η theo (1) là Beta(10,32). Kỳ vọng hậu nghiệm của η theo (2) là 0.238. Phương sai hậu nghiệm của η theo (3) là 0.00422. ệm fhậu nghi fposterior ftiên nghiệm Hình 1.Đồ thị hàm mật độ xác suất tiên nghiệm và hậu nghiệm của η (Beta(6,20)) Trang 25
  4. Science & Technology Development, Vol 11, No.06 - 2008 2.2.Hai tổng thể có phân phối chuẩn và Beta 1 Trong phần này ta không quan tâm đến v hoặc giả sử v = . Xem xét xác suất sai lầm 2 trong phân loại hai tổng thể cho hai trường hợp: Hai tổng thể có biến ngẫu nhiên phân phối chuẩn và phân phối Beta. 2.2.1.Hai tổng thể có phân phối chuẩn Giả sử X 1 ~ N ( μ 1 ,σ 1 ), X 2 ~ N ( μ 2 ,σ 2 ) , ta có hai trường hợp: 2 2 Trường hợp 1: Hai trung bình khác nhau μ 1 < μ 2 . μ1 + μ 2 x0 = Nếu σ 1 = σ 2 = σ thì phương trình f1(x) - f2(x) = 0 có một nghiệm 2 x 1 μ − μ1 ∫e −t 2 / 2 Φ( x ) = dt ξ= 2 2π Khi đó ta có τ = δ = 1 − Φ( ξ ) với 2σ và 0 Nếu σ 1 ≠ σ 2 thì phương trình f1(x) - f2(x) = 0 có hai nghiệm sau: ( μ 1σ 2 − μ 2σ 12 ) ± σ 1σ 2 ( μ 1 − μ 2 ) 2 + K 2 xi = σ 2 − σ 12 2 , i =1, 2 σ2 2(σ 2 − σ 12 ) ln ≥0 2 σ1 , và nếu x1 ≤ x 2 thì trong đó, K = ⎛ x 2 − μ1 ⎞ ⎛ x − μ1 ⎞ ⎛ x − μ2 ⎛ x − μ2 ⎞ ⎞ τ = 1 − Φ⎜ ⎟ + Φ⎜ 1 ⎟ δ = Φ⎜ 2 ⎟ − Φ⎜ 1 ⎟ ⎜ σ1 ⎟ ⎜σ ⎟ ⎜σ ⎟ ⎜σ ⎟ ⎝ ⎠ ⎝ ⎠; ⎝ ⎠ ⎝ ⎠ 1 2 2 Trường hợp 2: μ 1 = μ 2 . Nếu σ 1 ≠ σ 2 . Trường hợp này phương trình f1(x) - f2(x) = 0 có hai nghiệm σ1 2 ln σ2 E= 2 ≥ 0, i = 1,2 σ 2 − σ 12 xi = μ ± σ 1σ 2 E với Khi đó τ = 1 − Φ( σ 2 E ) + Φ( −σ 2 E ),δ = Φ( σ 1 E ) − Φ( −σ 1 E ) . Nếu σ 1 = σ 2 . Trong trường hợp này ta có ε = τ = δ = 1. Ví dụ 2: Trên hai tổng thể H1 và H2 ta quan sát biến ngẫu nhiên X1 và X2 lần lượt có phân phối chuẩn X1 ~ N(5, 92), X2 ~ N (18, 62). Nếu ta không quan tâm đến xác suất tiên nghiệm thì phương trình f1(x) = f2(x) có hai nghiệm x1 = 11.198, x2 = 45.602. Vì vậy trong phân tích nhận dạng Bayes nếu kết quả quan sát là 11.198 ≤ x ≤ 45.602 thì quan sát đó được xếp vào H1, ngược lại ta sẽ xếp nó vào H2. Trong phân tích nhận dạng này Trang 26
  5. TẠP CHÍ PHÁT TRIỂN KH&CN, TẬP 11, SỐ 06 - 2008 45.602 ∫ τ = P( H 2 | H 1 ) = x )dx = 0.2455, f1 ( 11.198 +∞ 11.198 ∫ ∫ f 2 ( x )dx = 0.1285 δ = P( H 1 | H 2 ) = f 2 ( x )dx + −∞ 45.602 và xác suất sai lầm trong phân loại là ε = τ + δ = 0.3739. 1 0.3739 Nếu v = 2 thì xác suất sai lầm ε = = 0.18695 . 2 2.2.2.Hai tổng thể có phân phối Beta ( α , β ); Beta( α 2 , β 2 ) Giả sử X 1 ~ Beta 1 1 X2 ~ x α1 −1 ( 1 − x ) β1 −1 x α 2 −1 ( 1 − x ) β 2 −1 = B( α 1 , β 1 ) B( α 2 , β 2 ) ⇔ Xét phương trình f1(x) = f2(x) B(α 1 , β 1 ) ⇔ x α1 −α 2 (1 − x) β1 − β 2 = B (α 2 , β 2 ) ⇔ xα ( 1 − x ) β = A B( α 1 , β 1 ) α = α1 − α 2 ; β = β1 − β 2 ; A = B( α 2 , β 2 ) . Trong đó, α k= β ;B= β A > 0 khi đó phương trình trên trở thành Đặt xk - xk+1 = B (4) Phương trình (4) có thể giải được trên máy tính, ta tìm được hoành độ giao điểm của hai hàm mật độ f1(x) và f2(x) và từ đó ta có thể tính được τ = P( H 2 | H 1 ) và δ = P( H 1 | H 2 ) . Việc tính τ và δ dẫn đến việc tính tích phân của hàm Beta x 1 ∫ x α −1 ( 1 − x ) β −1 dx F( x ) = B( α , β ) 0 (5) Tích phân (5) theo Robert J.Boik (1988) tính được −x 1 − β ,1;α + 1; K x ,α ,β 1− x ) F(x) = 2F1( (6) α β −1 ∞ n x (1 − x ) ( a , n )( b , n ) x ∑ K x ,α ,β = αB( α , β ) , 2F1 (a,b;c;x) = ( c,n ) n! trong đó, , với (a, n) là hệ số n =0 Pochhammer (xem [3] ). Và theo Tretter và Walster (xem [4]), dùng tính toán gần đúng cấp n nhận được Trang 27
  6. Science & Technology Development, Vol 11, No.06 - 2008 a1 1+ a2 b1 + a3 b2 + a4 b3 + ..... an + bn 2F1 ≈ trong đó, α 2 f 2 ( n − 1 )( α + β + n − 2 )( α + n − 1 )( β − n ) αf ( β − 1 ) a1 = an = ; n≥2 β (α + 1) β 2 ( α + 2n − 3 )( α + 2n − 2 ) 2 ( α + 2n − 1 ) 2( α . f + 2 β )n 2 + 2( αf + 2 β )( α − 1 )n + αβ ( α − 2 − αf ) bn = ; n ≥1 β ( α + 2n − 2 )( α + 2n ) βx f= α(1 − x ) Nhận xét. Trong trường hợp đặc biệt α 1 = β 1 = p và α 2 = β 2 = q , hai đồ thị của các hàm 1 số đều đối xứng với nhau qua đường x = 2 . Nếu p = q thì (4) sẽ có vô số nghiệm. Nếu p ≠ q thì (4) trở thành x2 - x + B = 0 và hai đồ thị của các hàm số sẽ cắt nhau tại hai 1 − 1 − 4B 1 + 1 − 4B 1 x1 = ; x2 = điểm đối xứng qua x = 2 : 2 2 . 3. KHOẢNG CÁCH L1 GIỮA vf1(x) VÀ (1-v)f2(x) Trong phần này ta coi v là biến ngẫu nhiên và như vậy τ và δ cùng với Pe cũng là biến ngẫu nhiên. Theo Lissack và Fu thì 2Pe =1 - J1(H1,H2|v) với Z = J1(H1,H2|v) là khoảng cách L1 giữa vf1(x) và (1-v)f2(x). Từ mối quan hệ này, khi không biết về f1(x) và f2(x) cũng như v nhưng chúng ta có thông tin về hai xác suất sai lầm τ và δ là hai biến ngẫu nhiên độc lập, chúng ta có thể tìm được hàm mật độ xác suất của Z. 1 3.1 Hàm tổng của hai biến ngẫu nhiên độc lập trên (0, ) 4 1 Định lý 2: Giả sử X1 và X2 là hai biến ngẫu nhiên độc lập trên (0, 4 ) có hàm mật độ xác suất lần lượt là f1(x), f2(x). Xét Y = X1 + X2 , khi đó hàm mật độ xác suất của Y có dạng: Trang 28
  7. TẠP CHÍ PHÁT TRIỂN KH&CN, TẬP 11, SỐ 06 - 2008 ⎧y 1 ⎪ ∫ f1 (t ) f 2 ( y − t )dt khi 0 < y ≤ 4 ⎪0 ⎪ 1 ⎪4 ⎪ 1 1 g ( y ) = ⎨ ∫ f1 (t ) f 2 ( y − t )dt khi < y ≤ 4 2 ⎪y−1 ⎪ 4 ⎪ 1 ⎪ 0 khi y ∉ (0, ) 2 ⎪ ⎩ Chứng minh +∞ ∫ f ( y − x)f g( y ) = 2( x )dx 1 Ta có −∞ 1 1 ∀x ∉ (0, ) 4 , nên Vì X2 là biến ngẫu nhiên trên (0, 4 ) nghĩa là f2 (x) = 0 1 4 ∫ f ( y − x)f g( y ) = 2( x )dx 1 0 1 1 Đặt t = y - x , dt = - dx ; khi x = 0 , t = y ; khi x = 4 , t = y - 4 . Từ đó, 1 y− y 4 ∫ f (t ) f ∫ f (t ) f g ( y) = ( y − t )(−dt ) = ( y − t )dt 1 2 1 2 1 y y− 4 1 1 Vì X1 và X2 ∈ (0; 4 ) nên y ∈ (0; 2 ). y y ∫ ∫ g( y ) = f1( t ) f2( y − t )dt = f1( t ) f2( y − t )dt 1 1 0< y≤ y− ≤0 1 0 y− 4 thì 4 Nếu nên (7) 4 1 y 4 ∫ ∫ f ( t ) f ( y − t )dt g( y ) = f1( t ) f 2 ( y − t )dt = 1 2 1 1 1 < y< y− >0 1 1 y− y− Nếu 4 2 thì 4 nên (8) 4 4 3.2 Một số trường hợp cụ thể của Y = X1 + X2 1 3.2.1.X1, X2 là hai biến ngẫu nhiên độc lập có phân phối Beta trên (0, 4 ) Trang 29
  8. Science & Technology Development, Vol 11, No.06 - 2008 1 1 X 1 ~ Beta( α 1 , β 1 ;0, ); X 2 ~ Beta( α 2 , β 2 ;0, ) 4 với α 1 , β 1 ,α 2 , β 2 > 0 . 4 Giả sử Theo Pham-Gia và Turkkan (xem [3] ) ta có kết quả: 1 0< y≤ 4 thì Nếu 4y g ( y ) = H 1 4α1 +α 2 y α1 +α 2 −1 ( 1 − 4 y ) β1 −1 .FD 2 ) ( α 2 ,1 − β 1 ,1 − β 2 ;α 1 + α 2 ; ( ,4 y ) 4y −1 (9) Γ( α 1 + β 1 )Γ( α 2 + β 2 ) H1 = Γ( α 1 + α 2 )Γ( β 1 )Γ( β 2 ) ; FD 2 ) là hàm siêu bội với hai biến số. ( với 1 1 < y< 4 2 thì Nếu g(y) 4y − 2 = H 2 2 β1 + β2 +1 (1 − 2 y ) β1 + β2 −1 (4 y − 1)α 2 −1.FD ( β 2 ,1 − α1 ,1 − α 2 ; β1 + β 2 ; 2 − 4 y , (2) ) 4 y − 1 (10) Γ( α 1 + β 1 )Γ( α 2 + β 2 ) H2 = Γ( β 1 + β 2 )Γ( α 1 )Γ( α 2 ) . với 1 3.2.2.X1, X2 là hai biến ngẫu nhiên độc lập có phân phối mũ cắt trên (0, 4 ) 1 1 Giả sử X1 ~ Exp(b1;0, ), X2 ~ Exp(b2; 0, ) với b1, b2 ∈ R + . 4 4 Trong phần này ta có thể đổi vai trò của X1 và X2 cho nhau để luôn giả sử b1 ≥ b2 . Khi b1 > b2 , [ ] b1b2 1 e −b2 y − e −b1 y . thì g ( y ) = Nếu 0 < y ≤ (11) ab(b1 − b2 ) 4 ⎡− ⎤ b2 −b1 + 4 b1 y b1 −b2 + 4 b2 y b1b2 1 1 − thì g ( y ) = −e < y< ⎢e 4 4 ⎥. Nếu (12) ab(b1 − b2 ) ⎣ 4 2 ⎦ 1 1 b1 b2 4 4 − − ∫ f ( x)dx = 1 − e ; b = ∫ f 2 ( x)dx = 1 − e 4 4 với b1, b2 > 0 và a = . 1 0 0 Khi b1 = b2 = c, 2 ⎛c⎞ 1 − cy Nếu 0 < y ≤ ⎜ ⎟ y .e . thì g(y) = (13) d⎠ 4 ⎝ 2 ⎛ c ⎞ ⎛1 ⎞ 1 1 < y ≤ thì g ( y ) = ⎜ ⎟ ⎜ − y ⎟.e −cy , Nếu (14) d ⎠ ⎝2 ⎝ ⎠ 4 2 Trang 30
  9. TẠP CHÍ PHÁT TRIỂN KH&CN, TẬP 11, SỐ 06 - 2008 1 1 c 4 4 − ∫ f 1 ( x)dx = ∫ ce −cx dx = 1 − e 4 với d = . 0 0 Chứng minh. 1 1 1 Khi b1 > b2 vì X1 ~ Exp(b1; 0, ) ; X2 ~ Exp(b2; 0, ) nên trên (0, ) 4 4 4 b b f 1 ( x ) = 1 e −b1x ; f 2 ( x ) = 2 e −b2 x a b −( b1 −b2 )t y y bb 1 ∫ ∫ , theo (7) thì g ( y ) = f 1 ( t ) f 2 ( y − t )dt = 1 2 e −b2 y e Nếu 0 < y ≤ dt 4 ab 0 0 [ ] [ ] b1b2 b1b2 e −b2 y 1 − e −( b1 −b2 ) y = e −b2 y − e −b1 y Vì b1 > b2 nên g ( y ) = ab( b1 − b2 ) ab( b1 − b2 ) 1 1 < y < , tương tự như trên ta có: Nếu 4 2 1 ⎡ −( b1 −b2 )( y − 1 ) ⎤ 4 bb b1b2 ∫ g ( y ) = 1 2 e −b2 y e −( b1 −b2 )t dt = e −b2 y ⎢e 4 − e −( b1 −b2 ) / 4 ⎥ ab( b1 − b2 ) ab ⎢ ⎥ ⎣ ⎦ 1 y− 4 ⎡ − b2 −b1 + 4b1 y ⎤ b −b + 4 b2 y b1b2 −1 2 = −e ⎢ ⎥ e 4 4 ab( b1 − b2 )⎢ ⎥ ⎣ ⎦ Khi b1 = b2 = c, ta có a = b = d, vì vậy: y 2 1 ⎛c⎞ bb thì g ( y ) = 1 2 e −b2 y ∫ 1dt = ⎜ ⎟ y .e −cy . Nếu 0 < y ≤ 4 ab ⎝d⎠ 0 1 2 4 ⎛c⎞ 1 bb 1 1 ∫ < y < thì g ( y ) = 1 2 e −b2 y 1dt = ⎜ ⎟ ( − y )e −cy . Nếu 4 2 ab ⎝d⎠ 2 1 y− 4 1 2.2.3.Nếu X1, X2 là hai biến ngẫu nhiên độc lập có phân phối chuẩn cắt trên (0, 4 ) 1 1 μ 1 ,σ 12 ;0, μ 2 ,σ 2 ;0 , 2 + 4 ) với μ 1 ,μ 2 ∈ R và σ 1 ,σ 2 ∈ R . 4 ), X2 ~ N( Giả sử X1 ~ N( 1 0< y≤ 4 thì Nếu ⎡⎛ ⎞⎤ ⎞ ⎛ σ2 σ1 ⎢Φ ⎜ y + K 2 ⎟ − Φ⎜ − y + K 2 ⎟⎥ ⎢⎜ ⎟ ⎜ ⎟⎥ K 1e − By +Cy . ⎣ ⎝ σ 1 σ 1 + σ 2 ⎝ σ 2 σ1 + σ 2 2 2 2 2 2 ⎠ ⎠⎦ g(y) = (15) Trang 31
  10. Science & Technology Development, Vol 11, No.06 - 2008 Trong đó a, b, A, B, C, K1, K2 là các hằng số có dạng μ1 + μ 2 1 1 1 + ; ; B = 2(σ + σ 2 ) C = 1 2σ 2σ σ 2 +σ2 2 2 2 2 2 A= 1 2 1 ( μ1 + μ 2 ) 2 μ 2σ 12 − μ1σ 2 2 − 1 2 2 2 (σ 1 +σ 2 ) K2 = e ab 2π (σ 12 + σ 2 σ 1 σ 2 σ 12 + σ 2 2 2 K1 = ; ( x − μ1 )2 − 1/ 4 ⎛ 1 − 4μ1 ⎞ ⎛ − μ1 ⎞ 2 2σ 1 1 ∫σ Φ⎜ ⎜ 4σ ⎟ − Φ⎜ σ ⎟ e dx ⎟ ⎜ ⎟ 2π =⎝ 1⎠ ⎝ 1⎠ a= 1 0 ( x − μ 2 )2 − 1/ 4 ⎛ 1 − 4μ 2 ⎛ − μ2 ⎞ ⎞ 2 2σ 2 1 ∫σ Φ⎜ ⎟ − Φ⎜ ⎟ e dx ⎜ 4σ ⎟ ⎜σ ⎟ 2π =⎝ ⎠ ⎝2 ⎠ 2 b= 2 0 1 1 < y< Nếu 4 2 thì ⎡⎛ ⎞ σ 12 + σ 2 2 σ1 ⎢Φ ⎜ − ⎟− y + K2 + ⎢⎜ ⎟ 4σ 1 σ 2 K 1e − By +Cy . ⎣ ⎝ σ 2 σ 1 + σ 2 2 2 2 ⎠ g(y)= ⎞⎤ ⎛ σ 12 + σ 2 2 σ2 Φ⎜ ⎟⎥ y + K2 − ⎜ ⎟⎥ 4σ 1 σ 2 σ σ 2 +σ2 2 −⎝1 1 ⎠⎦ (16) Chứng minh 1 0< y≤ 4 thì Theo (7) nếu y ∫ f (t )f g( y ) = y − t )dt 2( 1 0 ( t − μ1 )2 ( y − t − μ 2 )2 y y − − 1 1 ∫e ∫ 2 2 2 2σ 1 2σ 2 e Q e −( At + Pt ) .dt = = .e dt 2πabσ 1σ 2 2πabσ 1σ 2 0 0 Trong đó a, b, A được xác định như trên, và μ 2 μ1 μ 2 y μ 12 μ2 y2 y − 2− 2 − − 22 − σ 2 σ1 σ 2 ; Q = σ 2 2σ 12 2σ 2 2σ 2 2 2 P= 2 2 ⎛ P⎞ P )2 −( 2 At + − ⎜ 2 At + ⎟ P2 y y 2A ⎜ ⎟ − ∫e ∫e P2 −( At 2 + Pt ) ⎝ 2A ⎠ dt = e 4A . dt 2 + 2 4 A nên . Vì - (At2 + Pt) = 0 0 Trang 32
  11. TẠP CHÍ PHÁT TRIỂN KH&CN, TẬP 11, SỐ 06 - 2008 P P u = 2A t + , du = 2 A dt t=0, u= ; 2A 2 A khi Đặt ; khi P t = y , u = 2A y + 2A . Từ đó, P P2 2 Ay+ u2 y 2A e 4A − ∫e ∫ 2 − ( At + Pt ) dt = e du 2 2A P 0 2A P P2 2 Ay+ u2 2π e 2A 1 4A − ∫ = e du 2 2π 2A P 2A 2 P π e 4A ⎡ ⎛ ⎛ P ⎞⎤ P⎞ = ⎢Φ ⎜ 2 A y + ⎟ − Φ⎜ ⎟⎥ A⎣⎝ 2A ⎠ ⎝ 2 A ⎠⎦ Thế tích phân này vào g(y) ta có P2 ⎡⎛ ⎛ P ⎞⎤ P⎞ 1 +Q ⎢Φ ⎜ 2 A y + ⎟ − Φ⎜ ⎟⎥ e 4A ⎜ ⎟ ⎜ ⎟ 2abσ 1σ 2 πA ⎣⎝ 2A ⎠ ⎝ 2 A ⎠⎦ g(y) = ( μ + μ ) y ( μ1 + μ 2 ) 2 y2 P2 +Q=− + 12 2 2 − 2( σ 12 + σ 2 ) σ1 + σ 2 2( σ 12 + σ 2 ) 2 2 4A Vì nên P2 1 +Q 2 = K 1e − By + Cy e 4A 2abσ 1σ 2 πA . ⎡ ⎤ μ 2σ 12 − μ1σ 2 σ2 2 P y =⎢ ⎥ y + K2 2Ay + = + ⎢σ 1 σ 12 + σ 2 ⎥ σ 12 + σ 2 σ 12 + σ 2 2A 2 2 2 ⎣ ⎦ σ 12 σ 12σ 2 2 σ 12σ 2 σ 12σ 2 2 2 UP = ⎡ ⎤ μ 2σ 12 − μ1σ 2 σ1 2 y = −⎢ ⎥ y + K2 − + ⎢σ 2 σ 12 + σ 2 ⎥ σ 12 + σ 2 σ 12 + σ 2 2 2 2 ⎣ ⎦ P σ2 σ 12σ 2 2 2 = σ 12σ 2 σ 12σ 2 2 2 LP = 2 A Thay các kết quả trên vào g(y) ta có (15). 1 1 < y< Tương tự, nếu 4 2 thì Trang 33
  12. Science & Technology Development, Vol 11, No.06 - 2008 A+ 2 P A+ 2 P 1 P2 P2 u2 u2 2 2A 2 2A 4 2π e e 1 4A 4A − − ∫e ∫ ∫ −( At 2 + Pt ) dt = du = e2 e du 2 2π 2A 2A 1 1 1 y− 2 A( y − )+ P 2 A( y − )+ P 4 4 4 2A 2A ⎡ ⎞⎤ ⎛ 1 P2 ⎜ 2 A( y − ) + P ⎟⎥ ⎢ ⎛ A + 2P ⎞ π e 4A 4 ⎟ − Φ⎜ ⎟⎥ ⎢Φ ⎜ = ⎜ ⎟ ⎜ ⎟⎥ ⎢ ⎝ 2 2A ⎠ A 2A ⎜ ⎟⎥ ⎢ ⎝ ⎠⎦ ⎣ ⎡ ⎞⎤ ⎛ 1 ⎜ 2 A( y − ) + P ⎟⎥ ⎢ ⎛ A + 2P ⎞ 4 ⎟ − Φ⎜ ⎟⎥ ⎢Φ ⎜ ⎜ ⎟ ⎜ ⎟⎥ ⎢⎝ 2 2A ⎠ 2A ⎜ ⎟⎥ 2 K 1e − By +Cy . ⎢ ⎝ ⎠⎦ . ⎣ Khi đó g(y) = A + 2P UP = 2 2 A = σ 12 + σ 2 2 σ 12 + σ 2 + 4μ 2σ 12 − 4 μ 1σ 2 σ1 2 2 y − + =− y + K2 + 4σ 1 σ 2 σ 12 + σ 2 σ 12 + σ 2 σ 2 σ 12 + σ 2 2 2 2 σ2 4σ 12σ 2 2 2 σ 12σ 2 σ 12σ 2 2 2 1 2 A( y − )+ P 4 2A LP = = σ 12 + σ 2 2 − σ 12 − σ 2 + 4μ 2σ 12 − 4μ 1σ 2 σ2 2 2 y + = y + K2 − 4σ 1 σ 2 σ 12 + σ 2 σ 12 + σ 2 σ 1 σ 12 + σ 2 2 2 2 σ 12 4σ 12σ 2 2 σ 12σ 2 σ 12σ 2 2 2 Thế các kết quả trên vào g(y) ta có (16). Nhận xét. Tùy theo giá trị của μ và σ hàm mật độ xác suất của luật chuẩn cắt trên khoảng 1 (0, 4 ) có thể có rất nhiều hình dạng khác nhau nên (15) và (16) có thể cho những hình dạng rất phong phú của hàm mật độ xác suất của tổng hai biến ngẫu nhiên. 4. MỘT SỐ TRƯỜNG HỢP CỤ THỂ VỀ VỀ HÀM MẬT ĐỘ CỦA Z τ+ δ Ta có Z =1 - 2Pe = 1- 2y (y = , có hàm mật độ xác suất g(y)). Vì hàm ngược của Z ⎛1− z ⎞ 1− Z 1 ′ ′ nên hàm mật độ xác suất của Z là h(z) = yZ g ⎜ ⎟. và yZ = - là y = ⎝2⎠ 2 2 Trang 34
  13. TẠP CHÍ PHÁT TRIỂN KH&CN, TẬP 11, SỐ 06 - 2008 Thế hàm mật độ xác suất g(y) lần lượt vào các kết quả trên về tổng của hai hàm mật độ xác 1 suất trên (0, ) ta có các kết quả sau: 4 1 τ và δ là hai biến ngẫu nhiên độc lập có phân phối Beta trên (0, 4.1 ) 4 1 1 τ ~ Beta( α 1 , β 1 ;0 , ); δ ~ Beta( α 2 , β 2 ;0 , ) 4 4 Giả sử 1 0< z< 2 thì Nếu 2z h( z ) = H 2 2 β1 + β 2 z β1 + β 2 −1 ( 1 − 2 z )α 2 −1 .FD 2 ) ( β 2 ,1 − α 1 ,1 − α 2 ; β 1 + β 2 ;2 z , ( ) 2z − 1 (17) 1 ≤ z b2 : ⎡ b1z b2 z ⎤ b2 +b2 b1b2 − 1 ⎢e 2 − e 2 ⎥ h( z ) = 2 e 0< z< 2ab( b1 − b2 ) ⎢ ⎥ ⎣ ⎦ 2 thì Nếu (19) ⎡ ⎤ b (1− z ) b (1− z ) b1b2 −2 −1 1 h( z ) = −e ⎢e 2 2 ⎥ ≤ z
  14. Science & Technology Development, Vol 11, No.06 - 2008 1 0< z< 2 thì Nếu ⎡⎛ ⎞ σ 12 + σ 2 2 ⎢Φ ⎜ − σ 1 ( 1 − z ) + K 2 + ⎟− 2C − B B 2 B −C 1 − z+ z ⎢ ⎜ 2σ σ 2 + σ 2 ⎟ K 1e e 4σ 1 σ 2 4 4 2 .⎣ ⎝ ⎠ h(z) = 2 2 1 2 ⎞⎤ ⎛ σ (1 − z ) σ 12 + σ 2 2 Φ⎜ ⎟⎥ + K2 − 2 ⎜ ⎟⎥ 4σ 1 σ 2 2σ σ 2 + σ 2 2 −⎝1 1 ⎠⎦ (23) 1 ≤ z
  15. TẠP CHÍ PHÁT TRIỂN KH&CN, TẬP 11, SỐ 06 - 2008 TÀI LIỆU THAM KHẢO [1]. Andrew R. Webb,, Statistical Pattern Recognition John Wiley, London, (1999). [2]. Morris H.Degroot, Probability and Statistics, Addison-Wesley, United State, (1986). [3]. Pham-Gia T., Turkkan, N.and Bekker, A., Bayesian Analysis in the L1 – Norm of the Mixing, Proportion using Discriminant Analysis, Metrika, (2005). [4]. Robert J.Boik and James F. Robison-Cox, Derivatives of the Incomplete Beta Function, Montana State University –Bozema, Montana, (1988). [5]. Tô Cẩm Tú, Phân tích số liệu nhiều chiều, NXB Khoa học và Kỹ thuật, Hà Nội, (2003). Trang 37
nguon tai.lieu . vn