ლექცია 10 - nac 1

Report
ნიკოლოზ ოსტაპენკო
ბოქსი–ჯენკინსის მიდგომა
ARMA მოდელის აგებისათვის ბოქსმა და ჯენკინსმა შეიმუშავეს
შემდეგი პროცესი”
პირველი ეტაპი – მოდელის იდენტიფიკაცია
1. ინტეგრაციის რიგის ჩამოშორება – მწკრივის სტაციონალურობის
მიღწევა – “სტაციონარიზაცია”
2. ავტოკორელაციური ფინქციების (SACF და SPACF) საშუალებით ARMA
(p,q) მოდელის განსაზღვრა.
მეორე ეტაპი – მოდელის კოეფიციენტების შეფასება
მესამე ეტაპი – ნარჩენობითი წევრის გამოკვლევით აგებული მოდელის
ვარგისიანობის ტესტირება (შეფასება)
მეოთხე ეტაპი – მოდელის
პროგნოზირებისათვის.
გამოყენება
მომავალი
პერიოდის
მოდელილს იდენტიფიკაცია
(სტაციონარიზაცია)
განვიხოლოთ მოდელის:
X t   X t 1   t
თუ   1 მაშინ პროცესი არ არის სტაციონალური და ასეთ პროცეს
“შემთხვევითი ხეტიალი” ეწოდება.
თუ   1 მაშინ პროცესი არ არის სტაციონალური და ასეთ პროცეს
“ფეთქებადი” ეწოდება. მისი ავტოკორელაციური ფუნქცია ზრდადია
ლაგის ზრდასტან ერთად.
სტაციონარიზაცია
პირველ შემთხვევაში სტაციონარიზაცია ხდება პირველი სხაობის
აღების შემდეგ:
 X t  y t 1   t
მეორე შემთხვევაში პირველი სხაობის აღებას არ მივავართ მწკრივის
სტაციონალურობამდე
მოდელის იდენტიფიკაცია
(სტაციონარიზაცია)
განვიხოლოთ მოდელი: X t     t   t   t
2
ავიღოდთ მოდელის პირველი სხაობები:
 X t     t   t   t     ( t  1)   ( t  1)   t  1 
2
2
   2  t    (  t   t 1 )
მწკრივის ტრენდით დახასიათების ხარისხი შემცირდა ერთით
ავიღოთ მოდელის მეორე სხვაობები:
 X t   X t   X t 1  2   (  t  2  t 1   t  2 )
2
მწკრივი გათავისუფლდა ტრენდისაგან. ჩვენ ვხედავთ რომ მოდელში
აღწევს მცურავი საშუალოს პროცესი MA ( 2 ).
მოდელილსიდენტიფიკაცია
 მოდელის
იდენტიფიკაციის
ეტაპზე
უნდა განვსაზღვროთ
რომელიღაცა კერძო შემთხვევა ARMA (ρ ,q ) კლასის მოდელებიდან ანუ
უნდა განვსაზღვროთ ρ და q.
 პირველი ეტაპი არის მწკრივის კერძო ავტოკორელაციური (PACF) და
ავტოკორელაციური (ACF) ფუნქციების ანალიზი.
 წარმოადგენს
იულა–უოლკერის
განტოლებათა
ამონახსენს:
 ( k )  a1  ( k  1)  a 2  ( k  2 )    a p  ( k  p ), k  0
p
part
 ap
შერჩევითი ავტოკორელაცია:
1
 (k ) 
T
T k
(x

k
t
 x )( x t  k  x )
t 1
1
T
(x

k
t 1
t
 x)
2
სისტების
მოდელილსიდენტიფიკაცია
 კრამერის წესი
0
part
1
1
part
 1

k
part



1
1

 k 2
1
1
1

 k 3
2
2
1

 k 4
3





 k 1
 k 2

1
k
1
1

 k 2
1
1
1

 k 3
2
2
1

 k 4
3





 k 1
 k 2

1
1
მოდელილსიდენტიფიკაცია

H 0 : x t  AR ( p ) ჰიპოთეზა უარყოფილია თუ:
k
part


2
, k  p
T
H 0 : x t  MA ( q ) ჰიპოთეზა უარყოფილია თუ:
k 
2
, k  q
T
 p პარამეტრის განსაზღვრა:
PACF- ოსცილირებულია თუ მონოტონურად მცირდება p
ლადიდან დაწყებული.
 q პარამეტრის განსაზღვრა:
ACF– ოსცილირებულია თუ მონოტონურად მცირდება p
ლადიდან დაწყებული
მოდელილსიდენტიფიკაცია
 მაგალითად T=499

2
T
  0.0895
მოდელილს იდენტიფიკაცია
AR(2)
მოდელილს იდენტიფიკაცია
ARMA(1,1)
მოდელილსიდენტიფიკაცია
კერძო ავტოკორელაციური ფუნქციის გრაფიკები ARMA (4,q)
მოდელილსიდენტიფიკაცია
ავტოკორელაციური ფუნქციის გრაფიკები ARMA (4,q)
მოდელილს იდენტიფიკაცია
Еvews-ში ACF–ის და PACF–ის ამონაწერებს
ახლავთ
Q-სტატისტიკაც,
რომელც
მწკრივის ტესტირებას ახდენს თეთრ
ხმაურთან დაკავშირებით. არის თუ არა
მწკრივი თეთრი ხმაური. არსებობს Qსტატისტიკსი რამოდენიმე ვარიანტი. ერთ
ერთ
ასეთი
სტატისტიკაა
ლუნგა–
ბოქსის(Ljung, Box) სტატისტიკა, რომელიც
გამოიყენება Eviews–ის პაკეტში:
M
Q  T (T  2 ) 
k 1
 (k )
2
T k
Еvews-ში Q-სტატისტიკა მოცემულია ალბათობების მნიშვნელობებით. თუმცა
აღნიშნული სტატისტიკები ARMA მოდელის იდენტიფიცირებისათვის და
შეფასებისათვის არასეკმარისია და ხშირად სხვა პროცედურებს მივმართავთ.
მოდელილს იდენტიფიკაცია
(ავტორეგრესიულიპროცესისშეფასება)
აკაიკეს (Akaike) კრიტერიუმი
AIC ( k )  ln ˆ  k
2
k
2
T
შვარცის (schwarz) კრიტერიუმი
SIC ( k )  ln ˆ  k
2
k
ln T
T
ჰენან–კუინის (Hannan-Quinn) კრიტერიუმი
HQ ( k )  ln ˆ  k
2
k
2 ln ln T
T
მოდელილსიდენტიფიკაცია
 მაგალითად განვიხილოთ AR მოდელი. მოცემულია რაღაც
სტაციონალური მწკრივი

2
T
  0.089
მოდელილსკოეფიციენტებისშეფასება
 უმცირეს
კვადრატთა
მეთოდის და მაქსიმალური
დასაჯერებლობის მეთოდის
გამოყენებით
ფასდება
მოდელი.
შესაძლოა
ტესტებით
მიღებული შედეგაბი იყოს
წინააღმდეგობრივი
მოდელილსკოეფიციენტებისშეფასება
მოდელი
AR(3)
და
AR(4)
შემთხვევებში მეოთხე და
მესამე
ლაგის
კოეფიციენტები მოყვანილის
მნიშვნელოვნების დონეებში
ცვლადების კოეფიციენტები
Xt-1
Xt-2
Xt-3
AR(2)
1.26
-0.4
AR(3)
1.25
-0.39
P=0.87
AR(4)
1.25
-0.4
P=0.72
Xt-4
P=0.56
ნარჩენობითი წევრის გამოკვლევა
ნარჩენობითი წევრის
გამოკვლევა გულისხმობს იმის შემოწმებას
სტაციონალურობაზე და ნორმალურობაზე . მაგალითად ნარჩენობითი წევრი
ავტოკორელაციური მოდელი.
ხარკე–ბერის ტესტი – საშუალებას გვაძლევს შევაფასოთ,
ნორმალურად არის თუ არა ნარჩენობითი წევრი
განაწილებული.
იგი
გამოითვლება
ექსცესის
და
ასიმეტრიის კოეფიციენტების გამოყენებით. და მისი
განაწილება არის χ2(2).
სადაც,
k-მოდელში
რაოდენობა.
შესაფასებელი
პარამეტრების

similar documents