Tuesday 21 November 2017

Acf ruchomy średni proces


Identyfikacja liczb AR lub MA w modelach ARIMA ACF i PACF: Po serii czasowych stacjonowanych przez differencing, następnym krokiem w dopasowaniu modelu ARIMA jest określenie, czy AR lub MA terminy są potrzebne, aby poprawić dowolną autokorelację, która pozostaje w zróżnicowanych seriach. Oczywiście dzięki oprogramowaniu takim jak Statgraphics można po prostu spróbować różnych kombinacji terminów i sprawdzić, co działa najlepiej. Jest jednak bardziej systematyczny sposób na to. Przeglądając funkcje autokorelacji (ACF) i częściowej autokorelacji (PACF) z serii zróżnicowanych, można wstępnie zidentyfikować liczbę wymaganych terminów AR i MA. Jest już zaznajomiony z wykresem ACF: jest to tylko wykres słupkowy współczynników korelacji między szeregiem czasowym a opóźnieniami samego siebie. Wykres PACF jest wykresem częściowych współczynników korelacji pomiędzy serią a opóźnieniami samego siebie. Ogólnie korelacja pomiędzy dwiema zmiennymi jest wielkością korelacji między nimi, której nie wyjaśniono przez ich wzajemne korelacje z określonym zbiorem innych zmiennych. Na przykład, jeśli rozważamy zmienną Y na innych zmiennych X1, X2 i X3, częściowa korelacja między Y i X3 to ilość korelacji między Y i X3, której nie wyjaśniono wspólnymi korelacjami z X1 i X2. Ta częściowa korelacja może być obliczona jako pierwiastek kwadratowy redukcji wariancji, który osiąga się przez dodanie X3 do regresji Y na X1 i X2. Częściowa korelacja automatyczna to kwota korelacji między zmienną a opóźnieniem samego siebie, której nie wyjaśniono przez korelacje we wszystkich regułach dolnego rzędu. Autokorelacja szeregów czasowych Y przy opóźnieniu 1 jest współczynnikiem korelacji między Y t i Y t - 1. co prawdopodobnie przypada również na korelację pomiędzy Y t-1 i Y t-2. Ale jeśli Yt jest korelowana z Y t-1. i Y t-1 jest równie skorelowana z Y t-2. wówczas powinniśmy spodziewać się korelacji pomiędzy Y t i Y t-2. W rzeczywistości kwota korelacji, którą powinniśmy spodziewać się w punkcie 2, jest dokładnie kwadratem korelacji lag-1. Tak więc korelacja w punkcie 1 opóźnia się do 2-krotności i przypuszczalnie do opóźnień wyższego rzędu. Częściowa autokorelacja w punkcie 2 jest więc różnicą między rzeczywistą korelacją w punkcie 2 i oczekiwaną korelacją z powodu propagacji korelacji w punkcie 1. Poniżej znajduje się funkcja autokorelacji (ACF) serii UNITS przed wykonaniem jakichkolwiek różnic: Autokorelacje są istotne dla dużej liczby opóźnień - ale być może autokorelacje w przypadku opóźnień 2 i wyższych wynikają jedynie z propagacji autokorelacji w punkcie opóźnienia 1. Jest to potwierdzone wykresem PACF: zauważ, że wykres PACF ma znaczący co oznacza, że ​​wszystkie autokorelacje wyższego rzędu są skutecznie wyjaśniane przez autokorelację lag-1. Częściowe autokorelacje na wszystkich opóźnieniach można obliczyć poprzez dopasowanie kolejnych modeli autoregresji z coraz większą liczbą opóźnień. W szczególności częściowa autokorelacja w punkcie lag jest równa oszacowanemu współczynnikowi AR (k) w modelu autoregresji z k terms - tj. model regresji wielokrotnej, w którym Y jest poddawane regresji na LGD (Y, 1), LGD (Y, 2), itd. do LGD (Y, k). Tak więc poprzez zwykłą kontrolę PACF można określić, ile ramek AR trzeba użyć, aby wyjaśnić wzór autokorelacji w serii czasowej: jeśli częściowa autokorelacja jest znacząca w punkcie lag k, a nie znacząca w każdym wyższym porządku, tzn. jeśli PACF odcina się na opóźnienie - to sugeruje, że powinieneś spróbować dopasować autoregresywny model zlecenia. PACF z serii UNITS stanowi wyjątkowy przykład zjawiska odcięcia: ma bardzo duży skok przy opóźnieniu 1 i nie ma innych znaczących skoków, co wskazuje, że w przypadku braku różnicowania model AR (1) powinien być stosowany. Jednakże termin AR (1) w tym modelu okaże się równy pierwszej różnicy, ponieważ szacowany współczynnik AR (1), czyli wysokość skoku PACF w punkcie 1, będzie niemal dokładnie równy 1 Teraz równanie prognozowania dla modelu AR (1) dla serii Y bez rozkazów różniczkowych jest następujące: Jeśli współczynnik AR (1) 981 1 w tym równaniu jest równy 1, jest to równoważne przewidywaniu, że pierwsza różnica Y jest stały - tzn jest równoważne równaniu modelu losowego spaceru ze wzrostem: PACF serii UNITS mówi nam, że jeśli nie różni się to, to powinniśmy zmieścić model AR (1), który okazuje się być równoważny z przyjęciem pierwszą różnicą. Innymi słowy, mówi nam, że UNITS naprawdę potrzebuje kolejności różnicowania, która ma być stacjonowana. AR i MA: Jeśli PACF wyświetli ostre odcięcie, podczas gdy ACF spada wolniej (tzn. Ma znaczne skoki przy wyższych opóźnieniach), mówimy, że stacjonarne serie zawierają podpis quotar, co oznacza, że ​​wzór autokorelacji można łatwiej wyjaśnić przez dodanie terminów AR niż dodanie terminów typu MA. Prawdopodobnie okaże się, że podpis ARC jest powszechnie związany z dodatnią autokorelacją w punkcie 1 - tzn. ma tendencję do pojawiania się w szeregach, które nieznacznie się różnią. Powodem takiego stanu rzeczy jest to, że określenie AR może działać jak różnica cząstkowa w równaniu prognozowania. Na przykład, w modelu AR (1), określenie AR działa jak pierwsza różnica, jeśli współczynnik autoregresji wynosi 1, nic nie robi, jeśli współczynnik autoregresji wynosi zero i działa jak cząstkowa różnica, jeśli współczynnik jest pomiędzy 0 i 1. Więc jeśli serie są nieco nieznacznie odmienne, tzn jeśli niestacjonarny wzorzec dodatniej autokorelacji nie został całkowicie wyeliminowany, będzie on kwaskowany dla częściowej różnicy poprzez wyświetlenie podpisu AR. Mamy więc następującą zasadę do określania, kiedy należy dodać AR: Reguła 6: Jeśli PACF z serii różnicowanych wyświetli ostry skrawek, a autokorelacja lag-1 jest dodatnia - tzn. jeśli seria wydaje się nieco nieznacznie różniła się - warto rozważyć dodanie terminu AR do modelu. Opóźnieniem, w którym PACF odcina, jest wskazana liczba terminów AR. Co do zasady, dowolny wzorzec autokorelacji można usunąć z serii stacjonarnych, dodając do równań prognozowych wystarczająco dużo terminów autoregresywnych (opóźnienia stacjonowania serii), a PACF informuje, ile takich terminów będzie prawdopodobnie potrzebne. Jednak nie zawsze jest to najprostszy sposób wyjaśnienia danego wzoru autokorelacji: czasami skuteczniej jest dodawać warunek MA (błędy prognozy). Funkcja autokorelacji (ACF) odgrywa taką samą rolę dla terminów typu MA, że PACF gra w terminach AR, tzn. ACF informuje, ile z tych terminów jest prawdopodobne, aby usunąć pozostałą autokorelację z serii różnicowanych. Jeśli autokorelacja jest znaczna w punkcie opóźnienia, ale nie w przypadku jakichkolwiek wyższych opóźnień, tzn. jeśli ACF odcina się w punkcie opóźnienia k - oznacza to, że w równaniu prognozowym powinny być użyte dokładnie warunki k MA. W tym ostatnim przypadku mówimy, że stacjonarne serie zawierają podpis podpisu, co oznacza, że ​​można lepiej wyjaśnić wzór autokorelacji przez dodanie terminów MA niż przez dodanie terminów AR. Podpis magistrali często jest związany z ujemną autokorelacją w punkcie 1, tzn. ma tendencję do powstania w szeregach, które są nieco ponad differenced. Powodem tego jest to, że termin magisterski może w zasadzie anulować nakaz różnicowania w równaniu prognozowania. Aby to zobaczyć, pamiętaj, że model ARIMA (0,1,1) bez stałej jest równowaŜny z modelem Simple Exponential smoothing. Równanie prognozowania dla tego modelu polega na tym, że współczynnik MA (1) 952 1 odpowiada wielkości 1 - 945 w modelu SES. Jeśli 952 1 jest równe 1, odpowiada modelowi SES z 945 0, który jest tylko modelem CONSTANT, ponieważ prognoza nigdy się nie aktualizuje. Oznacza to, że gdy 952 1 równe jest 1, faktycznie anuluje się operację różnicującą, która normalnie umożliwia prognozowanie SES ponownego zakotwiczenia w ostatniej obserwacji. Z drugiej strony, jeśli średni współczynnik ruchomości jest równy 0, model ten zmniejsza się do modelu przypadkowego spaceru - tzn. pozostawia samą różnicę. Jeśli więc 952 1 jest czymś większym niż 0, to tak, jakbyśmy częściowo anulowali kolejność różnicowania. Jeśli serie już nieznacznie się różnią, tzn. jeśli została wprowadzona ujemna autokorelacja - wtedy będzie to oznaczało, że różnica zostanie częściowo anulowana poprzez wyświetlenie podpisu MA. (Dużo falowania faluje tutaj Dokładniejsze wyjaśnienie tego efektu znajduje się w strukturze matematycznej instrukcji ARIMA Models). Następująca dodatkowa zasada: Zasada 7: Jeśli ACF z serii differenced wyświetli ostre odcięcie i korekcyjność autokorelacji lag-1 jest negatywne - ie jeśli seria pojawi się nieco inaczej, różnie się różni, a następnie rozważyć dodanie wzoru do modelu. Opóźnieniem, w którym ACF odcina, jest wskazana liczba terminów. Model serii UNITS - ARIMA (2,1,0): Wcześniej ustaliliśmy, że seria jednostek UNITS potrzebowała (przynajmniej) jednej kolejności nierównomiernego różnicowania, która ma być stacjonowana. Po przyjęciu jednej nierównomiernej różnicy - tzn. dopasowując model ARIMA (0,1,0) do stałej - wykresy ACF i PACF wyglądają następująco: Zauważ, że (a) korelacja w punkcie 1 jest znacząca i dodatnia, a (b) PACF wykazuje ostrzejszy odcinek niższy niż ACF. W szczególności, PACF ma tylko dwa znaczące kolce, podczas gdy ACF ma cztery. Tak więc, zgodnie z powyższą regułą, zróżnicowane serie zawierają podpis AR (2). Jeśli zatem ustalimy kolejność określenia AR na 2 - tj. dopasuj model ARIMA (2,1,0) - otrzymujemy następujące wykresy ACF i PACF dla resztek: Autokorelacja w krytycznych opóźnieniach - a mianowicie opóźnienia 1 i 2 - została wyeliminowana i nie ma dostrzegalnego wzoru w przypadku opóźnień wyższego rzędu. Szereg szeregów czasowych pozostałości wykazuje nieco uciążliwą tendencję do odchodzenia od średniej: Jednakże w raporcie z analizy podsumowujący wynika, że ​​model mimo to wykonuje całkiem nieźle w okresie walidacji, współczynniki AR różnią się istotnie od zera, a standard odchylenie reszt zmniejszyło się z 1.54371 do 1.4215 (prawie 10) przez dodanie warunków AR. Ponadto nie ma żadnego znaku kwantowej kwot, ponieważ suma współczynników AR (0,2522540.195572) nie jest zbliżona do 1. (Korzenie jednostkowe omówiono bardziej szczegółowo poniżej). Ogólnie wydaje się to być dobrym modelem . Prognozy (nie przekształcone) w modelu wskazują na liniową tendencję wzrostową przewidzianą w przyszłości: tendencja do prognoz długoterminowych jest spowodowana faktem, że model zawiera jedną niewsoniczną różnicę i stałą odmianę: model ten jest w zasadzie losowym chodem wzrost precyzyjny poprzez dodanie dwóch terminów autoregresji - tzn dwa opóźnienia w serii zróżnicowanych. Nachylenie długoterminowych prognoz (tj. Średnie zwiększenie z jednego okresu do drugiego) jest równe średniemu podanemu w podsumowaniu modelu (0,467566). Równanie prognozowania to: gdzie 956 jest stałą wersją podsumowania modelu (0.258178), 981 1 jest współczynnikiem AR (1) (0.25224), a 981 2 jest współczynnikiem AR (2) (0.195572). Średnia w porównaniu do stałej: Ogólnie rzecz biorąc, wyrażenie kwantowe w wyjściowym modelu ARIMA odnosi się do średniej zróżnicowanych serii (tj. Średniej tendencji, jeśli kolejność różnicowania wynosi 1), podczas gdy kwantowa kwota jest ciągłym określeniem, które pojawia się po prawej stronie równania prognozowania. Średnie i stałe terminy są związane ze wzorem: CONSTANT MEAN (1 minus suma współczynników AR). W tym przypadku mamy 0.258178 0.467566 (1 - 0.25224 - 0.195572) Alternatywny model serii UNITS - ARIMA (0,2,1): Przypomnijmy, że kiedy zaczęliśmy analizować serię jednostek UNITS, nie byliśmy pewni, prawidłowa kolejność różnicowania w użyciu. Jedno rzędy nierównomiernego różnicowania dały najmniejsze odchylenie standardowe (i wzór łagodnej pozytywnej autokorelacji), a dwa rozkazy nierównomiernego różnicowania dały bardziej stacjonarny wygląd szeregów czasowych (ale z dość silną ujemną autokorelacją). Oto ACF i PACF z serii z dwoma różnymi różnicami: pojedynczy ujemny skok przy opóźnieniu 1 w ACF to podpis MA (1), zgodnie z powyższą regułą 8. Gdyby więc użyć dwóch nierównomiernych różnic, należałoby również dołączyć termin MA (1), uzyskując model ARIMA (0,2,1). Zgodnie z regułą 5, chcielibyśmy również stłumić stały termin. Oto wyniki dopasowania modelu ARIMA (0,2,1) bez stania: Zauważ, że szacunkowe odchylenie standardowe białego szumu (RMSE) jest tylko nieznacznie wyższe dla tego modelu niż poprzedni (1.46301 tutaj w porównaniu z 1.45215 poprzednio). Równanie prognozy dla tego modelu to: gdzie tta-1 jest współczynnikiem MA (1). Przypomnijmy, że jest to podobny do modelu Linear Exponential smoothing, o współczynniku MA (1) odpowiadającym ilości 2 (1-alfa) w modelu LES. Współczynnik MA (1) równy 0,76 w tym modelu sugeruje, że model LES z alfa w pobliżu 0,72 mieściłby się prawie równie dobrze. Właściwie, gdy model LES jest dopasowany do tych samych danych, optymalna wartość alfa wychodzi na około 0,61, co nie jest zbyt daleko. Oto model porównania raportu, który pokazuje wyniki dopasowania modelu ARIMA (2,1,0) ze stałą, model ARIMA (0,2,1) bez stałej i model LES: trzy modele wykonują niemal identycznie w okres estymacji, a model ARIMA (2,1,0) ze stałą wydaje się nieco lepszy od pozostałych dwóch w okresie walidacji. Tylko na podstawie tych wyników statystycznych trudno byłoby wybrać jeden z trzech modeli. Jeśli jednak przedstawimy długoterminowe prognozy modelu ARIMA (0,2,1) bez stałej (zasadniczo takie same jak w modelu LES), widać znaczną różnicę w porównaniu z modelem wcześniejszym: Prognozy mają nieco mniej tendencji wzrostowej niż te z wcześniejszego modelu - ponieważ tendencja lokalna pod koniec szeregu jest nieco mniejsza od przeciętnej tendencji w całej serii, ale przedziały ufności poszerzają się znacznie szybciej. Model z dwoma rozkazami różnicowania zakłada, że ​​tendencja w serii zmienia się w czasie, dlatego uważa, że ​​dalsza przyszłość jest o wiele bardziej niepewna niż model, który ma tylko jeden porządek różniczkowania. Który model należy wybrać? To zależy od założeń, jakie możemy sobie wyobrazić w odniesieniu do stałości tendencji w danych. Model z jednym porządkiem różnicowania zakłada stałą średnią tendencję - zasadniczo jest to wyrafinowany model swobodnego spacerowania ze wzrostem - i dlatego ma względnie konserwatywne prognozy trendu. Jest również dość optymistyczne co do dokładności, z jaką może przewidzieć więcej niż jeden rok. Model z dwoma rozkazami różnicowania zakłada zmieniającą się w czasie tendencję lokalną - zasadniczo jest to liniowy model wygładzania wykładniczego - a jego prognozy tendencji są nieco bardziej niestabilne. Zgodnie z ogólną zasadą w tej sytuacji zaleca się wybór modelu z niższym porządkiem różnicowania, inne rzeczy są mniej więcej równe. W praktyce modele losowego spaceru lub prostoliniowe wygładzają często działają lepiej niż liniowe modele wygładzania wykładniczego. Modele mieszane: w większości przypadków najlepszy model okazuje się modelem, który wykorzystuje albo tylko terminy AR, albo tylko terminy macierzyste, chociaż w niektórych przypadkach może to być najlepszy model dopasowany do danych. Należy jednak zachować ostrożność podczas montażu mieszanych modeli. Możliwe jest, aby termin AR i termin MA, aby anulować każde inne skutki. nawet jeśli oba te elementy mogą okazać się znaczące w modelu (co zostało ocenione przez t-statystykę ich współczynników). Załóżmy na przykład, że w modelu czasowym szeregiem czasowym jest model ARIMA (0,1,1), ale zamiast tego pasuje model ARIMA (1,1,2) - tzn. możesz dodać jeden dodatkowy termin AR i jeden dodatkowy termin magisterski. W dodatku mogą pojawić się dodatkowe terminy pojawiające się w modelu, ale wewnętrznie mogą działać tylko przeciwko sobie. Uzyskane oszacowanie parametrów może być niejednoznaczne, a proces estymacji parametrów może zająć wiele zbiegów (na przykład więcej niż 10) iteracji. Stąd: zasada 8: możliwe jest, aby AR i termin MA zniwelować efekty, więc jeśli zmieszony model AR-MA wydaje się pasował do danych, spróbuj też model z mniej niż jedną AR i jedną mniejszą ilością MA - zwłaszcza jeśli szacunkowy parametr w oryginalnym modelu wymaga więcej niż 10 iteracji. Z tego powodu modeli ARIMA nie można zidentyfikować przy pomocy podejścia stepwisequot, które obejmuje zarówno terminy AR, jak i MA. Innymi słowy, nie można rozpocząć od włączenia kilku terminów każdego rodzaju, a następnie wyrzucania tych, których szacunkowe współczynniki nie są znaczące. Zamiast tego należy postępować zgodnie z podejściem stepwisequot, dodając pojęcia jednego rodzaju lub drugiego, co wskazuje na wygląd wykresów ACF i PACF. Korzenie jednostek: jeśli seria jest rażąco niedoświadczona lub zróżnicowana, tzn. jeśli cały kolejność różnicowania musi być dodawana lub anulowana, jest to często sygnalizowane przez kwantową kwotę główną w szacunkowych współczynnikach AR lub MA modelu. Uważa się, że model AR (1) ma korzeń jednostkowy, jeśli szacowany współczynnik AR (1) jest prawie dokładnie równy 1. (Cytatowo dokładnie to znaczy naprawdę nie różni się znacząco od, w odniesieniu do własnego standardowego współczynnika współczynników. ) W takim przypadku oznacza to, że termin AR (1) jest dokładnie naśladujący pierwszą różnicę, w takim przypadku należy usunąć termin AR (1) i dodać kolejność różnicowania. (Jest to dokładnie tak, jak by to miało miejsce, gdy model AR (1) został dołączony do niezmienionej serii UNITS, jak wspomniano wcześniej). W modelu AR o wyższym rzędzie, w części AR modelu występuje pierwiastek jednostkowy, jeśli suma współczynniki AR są dokładnie równe 1. W takim przypadku należy zmniejszyć kolejność określenia AR o 1 i dodać kolejność różnicowania. Seria czasowa z jednostką podstawową w współczynnikach AR jest niestacjonarna --i. e. wymaga większego rozróżnienia. Zasada 9: Jeśli w modelu AR znajduje się korpus jednostki, tzn. jeśli suma współczynników AR jest prawie dokładnie 1 - należy zmniejszyć liczbę terminów AR o jeden i zwiększyć kolejność różnicowania przez jedną. Podobnie, model MA (1) mówi się, że ma korzeń jednostkowy, jeśli szacowany współczynnik MA (1) jest dokładnie równy 1. Kiedy to nastąpi oznacza to, że termin MA (1) jest dokładnie anulujący pierwszą różnicę, w takim przypadku należy usunąć termin MA (1), a także zmniejszyć kolejność różnicowania przez jedną. W modelu MA o wyższej kolejności jednostka jednostkowa istnieje, jeśli suma współczynników MA jest dokładnie równa 1. Reguła 10: Jeśli w części MA modelu znajduje się korpus jednostki, tj. jeśli suma współczynników MA jest prawie dokładnie 1 - należy zmniejszyć liczbę terminów MA o jeden i zmniejszyć kolejność różnicowania przez jeden. Na przykład, jeśli pasujesz do liniowego modelu wygładzania wykładniczego (model ARIMA (0,2,2)), gdyby byłby wystarczający poziom prostokątnego modelu wygładzania (model ARIMA (0,1,1)), może się okazać, że suma dwóch współczynników MA jest prawie prawie równa 1. Przez zmniejszenie kolejności MA i kolejności różnicowania przez jedną, otrzymasz bardziej odpowiedni model SES. Model prognozowania, którego korzeniem jednostkowym w oszacowanych współczynnikach MA jest niezapuszczalny. co oznacza, że ​​resztki modelu nie można uznać za oszacowanie quintruequota losowego szumu, które wygenerowało szereg czasowy. Innym symptomem korelacji jednostki jest to, że prognozy modelu mogą się pojawić w górę lub w inny sposób zachowują się dziwacznie. Jeśli szereg cyklu czasowego prognoz długoterminowych modelu wygląda dziwnie, warto sprawdzić szacowane współczynniki modelu na obecność podstawy jednostki. Reguła 11: Jeśli długoterminowe prognozy wydają się niekorzystne lub niestabilne, może istnieć root jednostki w współczynnikach AR lub MA. Żadne z tych problemów nie pojawiło się w przypadku dwóch modeli, ponieważ starannie zaczęliśmy rozsądne rozkazy różnic i odpowiednich liczb współczynników AR i MA, badając modele ACF i PACF. Bardziej szczegółowe dyskusje na temat korzenie jednostkowej i efektów rezygnacji pomiędzy terminami AR i MA można znaleźć w strukturze matematyki podręczników ARIMA Models. ARMMA, ARMA Acf - wizualizacje Pacf Jak wspomniano w poprzednim poście. Pracowałem z symulacjami Autoregresywnych i Przewozowych Średnia. Aby przetestować prawidłowość oszacowań za pomocą naszych symulacji, stosujemy acf (autokorelację) i pacf (częściową autokorelację). Dla różnych rzędów AR i MA dostajemy różne wizualizacje z nimi, takie jak: Wykładnicze malejące krzywe. Amortyzowane fale sinusoidalne. Pozytywne i ujemne skoki itp. Podczas analizowania i pisania testów w tym samym czasie poświęciłem trochę czasu na wizualizację danych na wykresach ilne i słupkowych, aby uzyskać jaśniejszy obraz: AR (1) proces AR (1) jest symulacją autoregresji z zamówić p 1, tj. z jedną wartością phi. Idealny proces AR (p) jest reprezentowany przez: Aby to symulować, zainstaluj statsample-timeseries stąd. Dla AR (p), acf musi dać falę sinusoidalną. Wzór jest znacznie zależny od wartości i znaku parametrów phi. Gdy dodatnia zawartość w współczynnikach współczynnika jest większa, otrzymasz sinusoidę zaczynającą się od pozytywnej strony, a druga fala sinusoida zacznie się od strony negatywnej. Zauważ, że fala sinusoidalna zaczynająca się od pozytywnej strony: i ujemna strona. pacf daje skok przy opóźnieniu 0 (wartość 1.0, wartość domyślna) i od opóźnienia 1 do opóźnienia k. Powyższy przykład charakteryzuje się procesem AR (2), musimy uzyskać kolce z opóźnieniem 1 - 2, ponieważ: MA (1) Proces MA (1) jest symulacją średnią ruchową z kolejnością q 1. np. Z jedną wartością of theta. Aby to symulować, użyj metody masim z procedury Statsample :: ARIMA :: ARIMA MA (q) proces ARMA (p, q) ARMA (p, q) jest kombinacją autoregresywnych i ruchomych średnich symulacji. Gdy q q proces jest nazywany czystym procesem autoregresyjnym, gdy p 0. proces jest czysto ruchomą średnią. Symulator ARMA można znaleźć jako armasim w Statsample :: ARIMA :: ARIMA. Dla procesu ARMA (1, 1), tutaj są porównania wizualizacji z R i tego kodu, który właśnie sprawił, że mój dzień :) Pozdrowienia, - Ankur Goel Wysłane przez Ankur Goel 20 lipca. 2017 Ostatnie wpisy GitHub Repos2.1 Ruchome modele średnie (modele MA) Modele serii czasowej znane jako modele ARIMA mogą obejmować pojęcia autoregresyjne i średnioroczne średnie ruchy. W pierwszym tygodniu dowiedzieliśmy się, że termin autoregresji w modelu szeregów czasowych dla zmiennej x t jest opóźnioną wartością x t. Na przykład terminem autoregresji 1 opóźnienia jest x t-1 (pomnożony przez współczynnik). Ta lekcja definiuje ruchome średnie terminy. Ruchoma średnia wersja w modelu szeregów czasowych jest błędem w przeszłości pomnożonym przez współczynnik. Niech (przewyższa N (0, sigma2w)), co oznacza, że ​​w t są identycznie, niezależnie rozdzielane, każdy z normalnym rozkładem mającym średnią 0 i tę samą wariancję. Średni model średniej ruchomej, oznaczony symbolem MA (1) to (xt mu wt atta1w) Średni model ruchu średniego rzędu, oznaczony symbolem MA (2) to (xt mu wt atta1w theta2w) , oznaczone literą MA (q) jest (xt mc i k ta2t w kropki tetaqw) Uwaga. Wiele podręczników i programów definiuje model z negatywnymi znakami przed terminami. To nie zmienia ogólnych teoretycznych właściwości modelu, chociaż odwraca znaki algebraiczne oszacowanych wartości współczynników i (niezakłóconych) w formułach ACF i wariancji. Musisz sprawdzić oprogramowanie w celu sprawdzenia, czy użyto negatywnych lub pozytywnych oznaczeń w celu poprawnego zapisania szacowanego modelu. R używa pozytywnych oznaczeń w swoim modelu bazowym, tak jak tutaj. Właściwości teoretyczne serii czasowej z modelem MA (1) Należy pamiętać, że jedyną niższą wartością w teoretycznym ACF jest opóźnienie 1. Wszystkie inne autokorelacje wynoszą 0. Tak więc próbka ACF o znacznej autokorelacji tylko w punkcie 1 jest wskaźnikiem możliwego modelu MA (1). Dla zainteresowanych studentów, dowody dotyczące tych właściwości stanowią załącznik do niniejszego materiału informacyjnego. Przykład 1 Załóżmy, że model MA (1) wynosi x t 10 w t .7 w t-1. gdzie (nadwrażliwość N (0,1)). Współczynnik 1 0,7. Teoretyczny ACF podano w poniższym wykresie ACF. Przedstawiona fabuła jest teoretycznym ACF dla MA (1) z 1 0,7. W praktyce próbka zazwyczaj nie dostarcza tak wyraźnego wzorca. Używając R, symulujemy 100 wartości próbek przy użyciu modelu x t 10 w t .7 w t-1, gdzie w t iid N (0,1). W tej symulacji powstaje ciąg szeregowy danych przykładowych. Nie możemy wiele powiedzieć z tej fabuły. Poniżej znajduje się próbka ACF dla danych symulowanych. Widzimy skok w punkcie 1, a następnie ogólnie wartości nieistotne dla opóźnień 1. Pamiętaj, że próbka ACF nie jest zgodna z teoretycznym wzorem MA (1) leżącego u podstawy, co oznacza, że ​​wszystkie autokorelacje w przypadku opóźnień 1 będą 0 Inna próbka miałaby nieco inną próbkę ACF pokazaną poniżej, ale najprawdopodobniej miałyby takie same cechy. Właściwości terapeutyczne serii czasowej z modelem MA (2) Dla modelu MA (2), właściwości teoretyczne są następujące: Należy zauważyć, że jedynymi wartościami niezonarnymi w teoretycznym ACF są opóźnienia 1 i 2. Autokorelacje dla wyższych opóźnień to 0 Więc próba ACF o istotnych autokorelacjach w przypadku opóźnień 1 i 2, ale nieistotne autokorelacje dla wyższych opóźnień wskazują na możliwy model MA (2). iid N (0,1). Współczynniki wynoszą 1 0,5 i 2 0,3. Ponieważ jest to MA (2), teoretyczny ACF będzie miał wartości inne niż z opóźnieniami 1 i 2. Wartości dwóch niezerowych autokorelacji to wykres A teoretycznej ACF. Jak prawie zawsze jest tak, dane próbki nie zachowują się tak doskonale jak teoria. Symulujemy n 150 wartości próbek dla modelu x t 10 w t .5 w t-1 .3 w t-2. gdzie w t iid N (0,1). Sporządza się szeregowy szereg danych. Podobnie jak w przypadku szeregów czasowych dla danych próbki MA (1), niewiele można powiedzieć o tym. Poniżej znajduje się próbka ACF dla danych symulowanych. Wzór jest typowy dla sytuacji, gdy model MA (2) może być użyteczny. Istnieją dwa statystycznie istotne skoki przy opóźnieniach 1 i 2, po których następują nieistotne wartości dla innych opóźnień. Zauważ, że z powodu błędu pobierania próbek próbka ACF nie pasowała dokładnie do teoretycznego wzoru. ACF dla modeli MA (q) Modeli Ogólną cechą modeli MA (q) jest to, że dla wszystkich pierwszych opóźnień q i autocorrelations 0 dla wszystkich naciśnięć gtz nie występują niestandome autokorelacje. Niepowtarzalność połączenia pomiędzy wartościami 1 i (rho1) w modelu MA (1). W modelu MA (1) dla dowolnej wartości 1. odwrotny 1 1 daje taką samą wartość jak dla przykładu, użyj 0,5 dla 1. a następnie użyj 1 (0.5) 2 dla 1. Otrzymasz (rho1) 0,4 w obu przypadkach. Aby zaspokoić teoretyczne ograniczenie zwane "invertibility". ograniczamy modele MA (1) do wartości z wartością bezwzględną mniejszą niż 1. W podanym przykładzie, 1 0,5 będzie dopuszczalną wartością parametru, podczas gdy 1 10,5 2 nie będzie. Odwrotność modeli MA Model macierzowy jest odwracalny, jeśli jest on algebraiczny, odpowiadający modelowi zbiegającemu się z nieskończonym modelem AR. Zbiegając się, rozumiemy, że współczynniki AR zmniejszają się do 0, gdy wracamy w czasie. Inwersja to ograniczenie zaprogramowane w oprogramowanie serii czasowej służące do oszacowania współczynników modeli z hasłami. To nie coś, co sprawdzamy w analizie danych. Dodatkowe informacje o ograniczeniu inwersji dla modeli MA (1) podano w dodatku. Uwagi dotyczące teorii zaawansowanej. W modelu MA (q) z określonym ACF jest tylko jeden model odwracalny. Warunkiem koniecznym do odwrócenia jest fakt, że współczynniki mają takie wartości, że równanie 1- 1 y-. - q y q 0 ma rozwiązania dla y, które leżą poza okręgiem jednostkowym. R dla przykładów W przykładzie 1 wykreślono teoretyczny ACF modelu x t 10 w t. 7w t-1. a następnie symulowane n 150 wartości z tego modelu i wykreślono szereg próbkowania i próbkę ACF dla danych symulowanych. Polecenia R służące do sporządzenia teoretycznej ACF to: acfma1ARMAacf (mac (0.7), lag. max10) 10 opóźnień ACF dla MA (1) z theta1 0,7 lags0: 10 tworzy zmienną o nazwie opóźnienia w zakresie od 0 do 10 (h0) dodaje osi poziomej do wykresu Pierwsze polecenie określa ACF i zapisuje je w obiekcie (np. o nazwie acfma1 (nasz wybór nazwy). Polecenie wydruku (trzecie polecenie) powoduje błędy w porównaniu do wartości ACF dla opóźnień 1 do 10. Parametr ylab etykietuje oś y, a główny parametr umieszcza tytuł na wykresie. Aby zobaczyć wartości liczbowe ACF, użyj komendy acfma1. Symulacje i wykresy zostały wykonane za pomocą następujących poleceń. xcarc. sim (n150, lista (mac (0.7))) Symuluje n 150 wartości z MA (1) xxc10 dodaje 10 do średniej 10. Domyślnie domyślne symulacje to 0. wykres (x, typeb, mainSimulated MA (1) data) acf (x, xlimc (1,10), mainACF dla symulowanych danych próbki) W przykładzie 2 wymyśliliśmy teoretyczny ACF modelu xt 10 wt5 w t-1 .3 w t-2. a następnie symulowane n 150 wartości z tego modelu i wykreślono szereg próbkowania i próbkę ACF dla danych symulowanych. Stosowane komendy R to acfma2ARMAacf (mac (0.5.0.3), lag. max10) acfma2 lags0: 10 (lags, acfma2, xlimc (1,10), ylabr, typh, główny ACF dla MA (2) z theta1 0,5, (x, x, x, x, x, x, x, x, x, x, x, x, y) mainACF dla symulowanych danych MA (2)) Dodatek: Dowód właściwości MA (1) Dla zainteresowanych studentów są dowody na teoretyczne właściwości modelu MA (1). Variance: (text (xt) text (mu wt theta1 w) tekst 0 (wt) tekst (theta1w) sigma2w theta21sigma2w (1theta21) sigma2w) Kiedy h 1, poprzedni wyrażenie 1 w 2. W przypadku dowolnego h2, poprzednie wyrażenie 0 Powodem jest to, że z definicji niezależności wag. E (w k w j) 0 dla dowolnej kj. Ponadto, ponieważ w t oznaczają 0, E (wjwj) E (wj2) w2. W serii czasów Zastosuj ten wynik, aby uzyskać ACF podany powyżej. Inwersyjny model MA to taki, który można zapisać jako model AR nieskończony, który zbiega się tak, że współczynniki AR zbiegają się do 0, gdy poruszamy się nieskończenie z powrotem w czasie. Dobrze wykazać inwersję modelu MA (1). Następnie zastępujemy relację (2) dla t-1 w równaniu (1) (3) (zt wt theta1 (z-taleta) wt theta1z-tal2w) W czasie t-2. (2) staje się zastępującym związek (4) dla t-2 w równaniu (3) (zt wt theta1 z - theta21w wt theta1z - eta21 (zteta1w) wt theta1z - eta12z theta31w) Gdybyśmy kontynuowali ( infinitely), we would get the infinite order AR model (zt wt theta1 z - theta21z theta31z - theta41z dots ) Note however, that if 1 1, the coefficients multiplying the lags of z will increase (infinitely) in size as we move back in time. To prevent this, we need 1 lt1. This is the condition for an invertible MA(1) model. Infinite Order MA model In week 3, well see that an AR(1) model can be converted to an infinite order MA model: (xt - mu wt phi1w phi21w dots phik1 w dots sum phij1w ) This summation of past white noise terms is known as the causal representation of an AR(1). In other words, x t is a special type of MA with an infinite number of terms going back in time. This is called an infinite order MA or MA(). A finite order MA is an infinite order AR and any finite order AR is an infinite order MA. Recall in Week 1, we noted that a requirement for a stationary AR(1) is that 1 lt1. Lets calculate the Var( x t ) using the causal representation. This last step uses a basic fact about geometric series that requires (phi1lt1) otherwise the series diverges. NavigationTime Series analysis tsa statsmodels. tsa contains model classes and functions that are useful for time series analysis. This currently includes univariate autoregressive models (AR), vector autoregressive models (VAR) and univariate autoregressive moving average models (ARMA). It also includes descriptive statistics for time series, for example autocorrelation, partial autocorrelation function and periodogram, as well as the corresponding theoretical properties of ARMA or related processes. It also includes methods to work with autoregressive and moving average lag-polynomials. Additionally, related statistical tests and some useful helper functions are available. Estimation is either done by exact or conditional Maximum Likelihood or conditional least-squares, either using Kalman Filter or direct filters. Currently, functions and classes have to be imported from the corresponding module, but the main classes will be made available in the statsmodels. tsa namespace. The module structure is within statsmodels. tsa is stattools. empirical properties and tests, acf, pacf, granger-causality, adf unit root test, ljung-box test and others. armodel. univariate autoregressive process, estimation with conditional and exact maximum likelihood and conditional least-squares arimamodel. univariate ARMA process, estimation with conditional and exact maximum likelihood and conditional least-squares vectorar, var. vector autoregressive process (VAR) estimation models, impulse response analysis, forecast error variance decompositions, and data visualization tools kalmanf. estimation classes for ARMA and other models with exact MLE using Kalman Filter armaprocess. properties of arma processes with given parameters, this includes tools to convert between ARMA, MA and AR representation as well as acf, pacf, spectral density, impulse response function and similar sandbox. tsa. fftarma. similar to armaprocess but working in frequency domain tsatools. additional helper functions, to create arrays of lagged variables, construct regressors for trend, detrend and similar. filters. helper function for filtering time series Some additional functions that are also useful for time series analysis are in other parts of statsmodels, for example additional statistical tests. Some related functions are also available in matplotlib, nitime, and scikits. talkbox. Those functions are designed more for the use in signal processing where longer time series are available and work more often in the frequency domain. Descriptive Statistics and Tests stattools. acovf (x, unbiased, demean, fft)

No comments:

Post a Comment