Saturday 25 February 2017

Autoregressive Integrierte Moving Average Ppt

Autoregressive integrierte Moving Average (ARIMA) Modelle 1. Präsentation zum Thema: Autoregressive Modelle mit integriertem Moving Average (ARIMA) 1. Präsentationstranskript: 2 2 - Prognosemethoden basierend auf exponentieller Glättung - Allgemeine Annahme für die obigen Modelle: Zeitreihendaten werden dargestellt als Die Summe aus zwei verschiedenen Komponenten (deterministc random) - Random Rauschen: erzeugt durch unabhängige Schocks für den Prozess-In der Praxis: sukzessive Beobachtungen zeigen serielle Abhängigkeit 3 ​​- ARIMA Modelle sind auch bekannt als die Box-Jenkins Methodik - beliebt. Geeignet für fast alle Zeitreihen viele Male erzeugen genauere Prognosen als andere Methoden. - Grenzungen: Wenn es nicht genügend Daten gibt, sind sie möglicherweise nicht besser bei der Prognose als die Zersetzung oder exponentielle Glättung Techniken. Empfohlene Anzahl der Beobachtungen mindestens Unempfindliche Stationarität erforderlich - Gleicher Abstand zwischen den Intervallen 3 ARIMA Models 7 7 Linearfilter - Es ist ein Prozess, der den Eingang xt in den Ausgang yt umwandelt - Die Umwandlung beinhaltet Vergangenheit, aktuelle und zukünftige Werte des Eingangs Die Form einer Summierung mit unterschiedlichen Gewichten - Zeitinvariante hängen nicht von der Zeit ab - Physikalisch realisierbar: Die Ausgabe ist eine lineare Funktion der aktuellen und vergangenen Werte des Eingangs - Stable, wenn In linearen Filtern auch die Stationarität der Eingangszeitreihen ist Die in dem Ausgang 9 reflektiert wird. Eine Zeitreihe, die diese Bedingungen erfüllt, neigt dazu, zu ihrem Mittel zurückzukehren und um diesen Mittelwert mit konstanter Varianz zu schwanken. Anmerkung: Strenge Stationarität erfordert neben den Bedingungen der schwachen Stationarität, dass die Zeitreihe weitere Bedingungen hinsichtlich ihrer Verteilung einschließlich Schiefe, Kurtosis etc. erfüllen muss. 9 - Nehmen Sie Snaphots des Prozesses zu unterschiedlichen Zeitpunkten auf, wenn es ähnlich ist Im Laufe der Zeit stationäre Zeitreihen - ein starkes, langsam sterbendes ACF schlägt Abweichungen von der Stationarität vor Bestimmen der Stationarität 12 Infinite Moving Average Eingang xt stationär THEN, der lineare Prozeß mit weißer Rauschen Zeitreihe t stationär 12 Ausgang yt stationär, mit t unabhängigen Zufallsschocks, mit E (t) 0 14 14 Der unendliche gleitende Durchschnitt dient als allgemeine Klasse von Modellen für jede stationäre Zeitreihe THEOREM (Welt 1938): Jede nicht deterministische schwach stationäre Zeitreihe yt kann dargestellt werden, wenn INTERPRETATION eine stationäre Zeitreihe zu sehen ist Als die gewichtete Summe der gegenwärtigen und vergangenen Störungen 15 15 Unendlicher gleitender Durchschnitt: - Impraktiv, um die unendlichen Gewichte zu schätzen - Unterstützung in der Praxis, außer für spezielle Fälle: Finite-order-Moving-Average-Modelle (MA). Gewichte, die auf 0 gesetzt sind, mit Ausnahme einer endlichen Anzahl von Gewichten ii. Finite-order autoregressive (AR) Modelle: Gewichte werden mit nur einer endlichen Anzahl von Parametern iii erzeugt. Eine Mischung von autoregressiven Movement-Average-Modellen endlicher Ordnung (ARMA) 16 Finite Order Moving Average (MA) - Prozess Gleitender durchschnittlicher Auftragsablauf q (MA (q)) MA (q). Unabhängig von den Werten der Gewichte 16 17 Erwarteter Wert von MA (q) Varianz von MA (q) Autokovarianz von MA (q) Autocorelation von MA (q) 17 t weißes Rauschen 18 18 ACF-Funktion: Hilft bei der Identifikation des MA-Modells (.)............................................................... MA (q) 19 q1 20 20 - Mean-Varianz. Stabil - Kurzlauf läuft, wo aufeinanderfolgende Beobachtungen tendenziell einander folgen - Positive Autokorrelation - Observationen oszillieren sukzessive - negative Autokorrelation 21 Zweite Ordnung Moving Average MA (2) Prozess Autokovarianz von MA (q) Autokorelation von MA (q) 21 23 Finite Order Autoregressive Process 23 - Weltentheorem: unendliche Anzahl von Gewichtungen, nicht hilfreich bei Modellierung Prognose - Finite Ordnung MA Prozess: Schätzen eine endliche Anzahl von Gewichten, setzen die anderen gleich Null Älteste Störung veraltet für die nächste Beobachtung nur endliche Anzahl von Störungen beitragen, um den Strom Wert der Zeitreihe - Berücksichtigen Sie alle Störungen der Vergangenheit. Verwenden autoregressive Modelle schätzen unendlich viele Gewichte, die einem bestimmten Muster folgen, mit einer kleinen Anzahl von Parametern 24 erster Ordnung Autoregressiver Prozess, AR (1) Angenommen. Sind die Beiträge der Störungen, die in der Vergangenheit liegen, klein im Vergleich zu den jüngsten Störungen, die der Prozeß erlebt hat. Reflektieren Sie die abnehmenden Größen der Beiträge der Störungen der Vergangenheit durch eine Menge von unendlich vielen Gewichten in absteigenden Größen, wie The Gewichte in den Störungen ausgehend von der aktuellen Störung und zurück in der Vergangenheit: 24 Exponentielles Zerfallsmuster 25 erster Ordnung autoregressiver Prozess AR (1) AR (1) stationär, wenn 25 wo WHUT AUTOREGRESSIVE. 26 Mittleres AR (1) Autokovarianzfunktion AR (1) Autokorrelationsfunktion AR (1) 26 Das ACF für einen stationären AR (1) - Prozess hat eine exponentielle Zerfallsform 28 2. Ordnung Autoregressiver Prozess, AR (2) 28 Dieses Modell kann dargestellt werden In der unendlichen MA-Form die Bedingungen der Stationarität für yt in Form von 1 2 WARUM 1. Unendlich MA Anwenden 31 31 Lösungen Die Gleichung zweiter Ordnung erfüllen Die Lösung. (2) unendliche MA-Darstellung: 32 32 Mittlere Autokovarianzfunktion Für k0: Für k0: Yule-Walker-Gleichungen 0: Yule - Walmer-Gleichungen 0: Yule-Walker-Gleichungen title32 Mittlere Autokovarianzfunktion Für k0: Für k0: Yule-Walker-Gleichungen 33 33 Autokorrelationsfunktion Lösungen A. Lösen Sie die Yule-Walker-Gleichungen rekursiv B. Allgemeine Lösung Besorgen Sie sie Die Wurzeln m 1 m 2, die mit dem Polynom assoziiert sind 34 34 Fall I: m 1, m 2 deutliche reale Wurzeln c 1, c 2 Konstanten: erhalten werden aus (0), (1) Stationarität: ACF-Form: Mischung von 2 exponentiell Abklingbedingungen zB AR (2) - Modell Es kann als ein angepasstes AR (1) - Modell gesehen werden, für das ein einzelner exponentieller Zerfallsausdruck wie im AR (1) nicht ausreichend ist, um das Muster in dem ACF zu beschreiben, und somit wird ein zusätzlicher Zerfallsausdruck hinzugefügt Durch Einführen des zweiten Nachlaufterms y t-2 35 35 Fall II: m 1, m 2 Komplexkonjugate in der Form c 1, c 2. besondere Konstanten ACF Form: feuchter sinusförmiger Dämpfungsfaktor R Frequenzperiode 37 37 AR (2) : Yt 40.4yty t-2 et Wurzeln des Polynoms: reelle ACF-Form: Gemisch aus 2 exponentiellen Zerfallsbedingungen 38 38 AR (2) Prozess: yt 40.8yty t-2 et Wurzeln des Polynoms: komplex konjugiert ACF-Form: gedämpftes Sinusoid Verhalten 40 40 AR (P) stationär Sind die Wurzeln des Polynoms kleiner als 1 im Absolutwert AR (P) absolute summierbare unendliche MA-Darstellung Unter der vorherigen Bedingung 43 43 ACF p-te Ordnung der linearen Differenzengleichungen AR (p). - erfüllt die Yule-Walker-Gleichungen - ACF aus den p Wurzeln des zugehörigen Polynoms, z. B. Unterschiedliche reale Wurzeln. - Im Allgemeinen werden die Wurzeln nicht wirklich ACF sein. Gemisch aus exponentiellem Abklingen und gedämpftem Sinus 44 44 ACF - MA (q) - Verfahren: nützliches Werkzeug zur Bestimmung der Reihenfolge der Prozessabkürzungen nach Verzögerung k - AR (p) - Verfahren: Mischung aus exponentiell abgebremsten sinusförmigen Ausdrücken Auskunft über die Reihenfolge Von AR 45 45 Partielle Autokorrelation Funktion Betrachten. - drei zufällige Variablen X, Y, Z - einfache Regression von X auf ZY auf Z Die Fehler werden aus 46 46 Partielle Korrelation zwischen XY nach Anpassung für Z: Die Korrelation zwischen XY Partielle Korrelation kann als die Korrelation zwischen zwei Variablen nach gesehen werden (PACF) zwischen yty tk Die Autokorrelation zwischen yty tk nach der Anpassung für y t-1, y t-2, y tk AR (p) - Prozeß: PACF zwischen yty tk Für kp gleich Null Betrachten wir eine stationäre Zeitreihe yt nicht unbedingt einen AR-Prozeß - Für jeden festen Wert k sollten die Yule-Walker-Gleichungen für die ACF eines AR (p) - Prozesses p gleich Null sein. Betrachten wir eine stationäre Zeitreihe yt Nicht notwendigerweise ein AR-Prozeß - Für einen beliebigen f-Wert k sind die Yule-Walker-Gleichungen für die ACF eines AR (p) - Prozesses 48 48 Matrixnotationslösungen Für jeden gegebenen k, k 1,2 wird der letzte Koeffizient als partielle Autokorrelation bezeichnet Koeffizient des Prozesses bei Verzögerung k AR (p) Prozess: Ermitteln der Reihenfolge eines AR-Prozesses unter Verwendung der PACF 49 49 Abkürzung nach 1 st Verzögerungsmuster AR (2) MA (1) MA (2) 1) AR (2) Abkürzung nach 2. Verzögerung 50 50 Invertierbarkeit der MA-Modelle Invertierbarer gleitender Durchschnittsprozess: Der MA (q) - Prozess ist invertierbar, wenn er eine absolute summierte unendliche AR-Darstellung aufweist MA (q) 51 51 Erhalten Wir brauchen Bedingung der Invertierbarkeit Die Wurzeln des zugehörigen Polynoms sind kleiner als 1 im absoluten Wert Ein invertierbarer MA (q) - Prozeß kann dann als unendlicher AR-Prozess geschrieben werden 52 52 PACF eines MA (q) Prozeß ist eine Mischung von exponentiellen Zerfallsdämpfen sinusförmiger Ausdrücke Bei der Modellidentifizierung verwenden Sie beide Abtast-ACF-Abtastwerte PACF-PACF vermutlich niemals 53 53 Gemischtes ARMA-Verfahren (ARMA) ARMA-Modell (p, q) Stellen Sie das exponentielle Zerfallsmuster durch Zugabe von a ein (P, q) prozessabhängig, wenn die Wurzeln des Polynoms kleiner als eins im Absolutwert ARMA (p, q) eine unendliche MA-Darstellung 55 55 haben Invertierbarkeit des ARMA-Prozesses im Zusammenhang mit der MA-Komponente Prüfung der Wurzeln des Polynoms Wenn die Wurzeln kleiner als 1 im Absolutwert sind, dann ist ARMA (p, q) invertierbar mit einer unendlichen Darstellung Koeffizienten: 60 60 Nicht stationärer Prozess Nicht konstantes Niveau, homogenes Verhalten im Zeitverlauf yt ist homogen, nicht stationär, wenn - nicht stationär - der erste Unterschied, wtyt - y t-1 (1-B) yt oder höhere Ordnungsdifferenzen wt (1- B) dyt erzeugt eine stationäre Zeitreihe Y t autoregressive intergrate gleitende Mittelwert der Ordnung p, d, q ARIMA (p, d, q) Wenn die d-Differenz wt (1-B) dyt eine stationäre ARMA (p, q) ARIMA (p, d, q) 61 61 Der Random-Walk-Prozess ARIMA (0,1,0) Einfachstes stationäres Modell Erstes Differenzieren eliminiert die serielle Abhängigkeit zu einem Weißrausch-Prozess 62 62 yt 20y t-1 et Beweis für nicht - Stationärer Prozess - Beispiel ACF. Stirbt langsam ab Beispiel PACF: signifikant bei der ersten Verzögerung - Sample PACF-Wert bei Verzögerung 1 nahe bei 1 erster Unterschied - Zeitreihenplot von wt. Stationär - Beispiel ACF PACF: keinen signifikanten Wert anzeigen - Use ARIMA (0,1,0) 63 63 Der Random-Walk-Prozess ARIMA (0,1,1) Infinite AR-Darstellung, abgeleitet von: ARIMA (0,1,1 ) (IMA (1,1)): ausgedrückt als exponentieller gewichteter gleitender Durchschnitt (EWMA) aller vergangenen Werte 64 64 ARIMA (0,1,1) - Der Mittelwert des Prozesses bewegt sich zeitlich nach oben - Probe ACF: stirbt Relativ langsam - Sample PACF: 2 signifikante Werte bei Lags 1 2 - erster Unterschied schaut stationär - Beispiel ACF PACF: ein MA (1) - Modell wäre für die erste Differenz geeignet, sein ACF schneidet nach dem ersten verzögerten PACF-Zerfallsmuster ab Mögliche Modell : AR (2) Überprüfen Sie die WurzelnAutoregressive Integrated Moving Average (ARIMA) Populär bekannt als die Box-Jenkins-Methode. Präsentation zum Thema: Autoregressive integrierte Moving Average (ARIMA) Im Folgenden bekannt als die Box-Jenkins-Methodik. Die ARIMA-Methodik betont nicht nur den Aufbau von Einzelgleichungs - oder Simultangleichungsmodellen, sondern auch die Analyse der probabilistischen oder stochastischen Eigenschaften ökonomischer Zeitreihen Eigenen Datensatz. Im Gegensatz zu den Regressionsmodellen, in denen Yi durch k regressor X 1, X 2, X 3. X k erklärt wird, erlauben die BJ-Typ Zeitreihenmodelle, dass Y i durch vergangene oder verzögerte Werte von Y selbst und stochastischem Fehler erklärt wird Bedingungen. Aus diesem Grund werden ARIMA-Modelle manchmal als theoretisches Modell bezeichnet, da sie nicht aus einer ökonomischen Theorie abgeleitet sind und ökonomische Theorien oft die Grundlage von Simultangleichungsmodellen sind. Beachten Sie, dass der Schwerpunkt in diesem Thema auf univariaten ARIMA-Modellen liegt, da es sich hierbei um eine einzige Zeitreihe handelt. Sie kann aber auch auf multivariate ARIMA-Modelle erweitert werden. 3 Lassen Sie uns mit den GDP-Zeitreihendaten für die Vereinigten Staaten arbeiten, die in der Tabelle gegeben werden. Ein Diagramm dieser Zeitreihe ist in den Abbildungen 1 (undifferenziertes BIP) und 2 (erstes differenziertes BIP) dargestellt. Das BIP in der Ebene ist nicht stationär, sondern in der (ersten) differenzierten Form ist es stationär. Wenn eine Zeitreihe stationär ist, kann sie auf verschiedene Arten für das ARIMA-Modell passen. Ein autoregressiver (AR) Prozess Lassen Sie Y t das BIP zum Zeitpunkt t darstellen. Wenn wir Y t als (Y t -) 1 (Y t-1) ut, wo der Mittelwert von Y ist und wobei u ein unkorrelierter Zufallsfehlerterm mit Null-Mittelwert und konstanter Varianz 2 (dh weißes Rauschen) ist, modellieren Wir sagen, dass Y t einem autoregressiven oder AR (l), stochastischen Prozess 4 folgt. Hier hängt der Wert von Y zum Zeitpunkt t von seinem Wert in der vorherigen Zeitperiode ab, und ein Zufallsausdruck die Y-Werte werden als Abweichungen von ausgedrückt Ihren Mittelwert. Mit anderen Worten, dieses Modell sagt, dass der Prognosewert von Y zum Zeitpunkt t nur ein gewisser Anteil (l) seines Wertes zum Zeitpunkt (t-1) zuzüglich eines zufälligen Schocks oder einer Störung zum Zeitpunkt t ist, werden die Y-Werte um ihre Werte herum ausgedrückt Durchschnittswerte. In dem Modell folgt (Y t -) 1 (Y t-1) 2 (Y t-2) u t Y t einem autoregressiven oder AR (2) - Prozeß zweiter Ordnung. Der Wert von Y zum Zeitpunkt t hängt von seinem Wert in den vorherigen zwei Zeitperioden ab, wobei die Y-Werte um ihren Mittelwert herum ausgedrückt werden. Im allgemeinen ist (Yt -) & sub1; (Yt-1) & sub2; (Yt-2). P (Y t-p) u t Hier ist Y t ein p-ter Ordnung autoregressiver oder AR (p), Prozess. 5 Ein beweglicher Durchschnitt (MA) - Verfahren Nehmen wir an, dass wir Y wie folgt modellieren: Y t 0 u t 1 u t-1 Wo ist eine Konstante und u t wie zuvor, ist der stochastische Fehlerausdruck des weißen Rauschens. Hierbei ist Y zur Zeit t gleich einer Konstanten plus einem gleitenden Durchschnitt der aktuellen und vergangenen Fehlerterme. Somit folgt im vorliegenden Fall Y einem Bewegungsdurchschnitt erster Ordnung oder einem MA (1) - Verfahren. Wenn aber Y dem Ausdruck Y t 0 u t 1 u t-1 2 u t-2 folgt, dann handelt es sich um ein MA (2) - Verfahren. Im allgemeinen gilt Y t 0 u t 1 u t-1 2 u t-2. Q u t-q ist ein MA (q) - Verfahren. Kurz gesagt, ist ein gleitender Durchschnittsprozess einfach eine lineare Kombination von Weißrausch-Fehlertermen. 6 Ein autoregressiver und beweglicher Durchschnitt (ARMA) Prozess Es ist sehr wahrscheinlich, dass Y Eigenschaften sowohl von AR als auch von MA aufweist und daher ARMA ist. Somit folgt Y t einem ARMA-Verfahren (1, 1), wenn es als Y t 1 Y t-1 0 u t 1 u t-1 geschrieben werden kann, da es einen autoregressiven und einen gleitenden Durchschnittsterm gibt und einen konstanten Term darstellt. Im allgemeinen wird in einem ARMA (p, q) - Prozeß p autoregressive und q gleitende Durchschnittsterme auftreten. Ein autoregressiver integrierter Moving Average (ARIMA) Prozess Viele wirtschaftliche Zeitreihen sind nichtstationär, dh integriert. Wenn eine Zeitreihe von Ordnung 1 integriert ist, d. h. I (1), sind ihre ersten Differenzen I (0), das heißt, stationär. Ähnlich ist, wenn eine Zeitreihe I (2) ist, ihre zweite Differenz I (0). Im allgemeinen, wenn eine Zeitreihe I (d) ist, erhält man nach der Differenzierung d-mal eine I (0) - Serie. Daher, wenn in einer Zeitreihe d-Zeit Unterschied machen es stationär, dann ist es ARIMA (p, d, q) - Modell wird als eine autoregressive integrierte gleitende durchschnittliche Zeitreihen-Modell. Wobei p die Anzahl der autoregressiven Terme bezeichnet, d die Anzahl der Momente, zu denen die Reihe zu unterscheiden ist, bevor sie stationär wird, und q die Anzahl der gleitenden Durchschnittsterme. Eine ARIMA (2,1,2) Zeitreihe muss einmal differenziert werden (d 1) wird stationär und hat zwei AR - und zwei MA-Terme. 8 Wichtig ist, dass für die Anwendung der Box-Jenkins-Methodik entweder eine stationäre Zeitreihe oder eine nach einer oder mehreren Abweichungen stehende Zeitreihe vorliegt. Der Grund für die Annahme der Stationarität lässt sich wie folgt erklären: Das Ziel von B-J Box-Jenkins besteht darin, ein statistisches Modell zu identifizieren und zu schätzen, das so interpretiert werden kann, dass es die Beispieldaten erzeugt hat. Wenn dieses geschätzte Modell dann für die Prognose verwendet werden soll, müssen wir davon ausgehen, dass die Merkmale dieses Modells über die Zeit und insbesondere über zukünftige Zeiträume konstant sind. Der Grund für das Erfordernis stationärer Daten besteht also darin, dass jedes Modell, das aus diesen Daten abgeleitet wird, selbst als stationär oder stabil interpretiert werden kann und somit eine gültige Basis für die Prognose liefert. 9 DIE BOX-JENKINS (BJ) METHODOLOGIE Betrachtet man eine Zeitreihe, wie die US-GDP-Reihe in Abbildung. Wie kann man wissen, ob es ein rein AR-Vorgang (und wenn ja, was ist der Wert von p) oder ein rein MA-Prozess (und wenn ja, was ist der Wert von q) oder ein ARMA-Prozess (und wenn ja, was Sind die Werte von p und q) oder ein ARIMA-Verfahren. In diesem Fall müssen wir die Werte von p, d und q kennen. Die BJ-Methodik beantwortet diese Fragen. Das Verfahren besteht aus vier Schritten: Schritt 1. Identifikation: Das heißt, finden die geeigneten Werte von p, d und q unter Verwendung von Korrelogram und partiellem Korrektramm und Augmented Dickey Fuller Test. 11 Schritt 2. Schätzung: Nachdem die entsprechenden p - und q-Werte identifiziert wurden, besteht die nächste Stufe darin, die Parameter der autoregressiven und gleitenden Durchschnittsterme in dem Modell abzuschätzen. Manchmal kann diese Berechnung durch einfache kleinste Quadrate durchgeführt werden, aber manchmal müssen wir auf nichtlineare (in Parameter) Schätzmethoden zurückgreifen. Da diese Aufgabe nun routinemäßig von mehreren statistischen Paketen gehandhabt wird, müssen wir uns nicht um die tatsächliche Mathematik der Schätzung kümmern. Schritt 3. Diagnoseprüfung: Nachdem Sie ein bestimmtes ARIMA-Modell ausgewählt haben und seine Parameter abgeschätzt haben, sehen wir als nächstes, ob das gewählte Modell die Daten vernünftig gut passt, denn es ist möglich, dass auch ein anderes ARIMA-Modell die Arbeit erledigen könnte. 12 Dies ist der Grund, warum Box-Jenkins ARIMA-Modellierung ist mehr eine Kunst als eine Wissenschaft erhebliche Fähigkeiten erforderlich ist, um das richtige ARIMA-Modell zu wählen. Ein einfacher Test des gewählten Modells ist, zu sehen, wenn die Residuen, die von diesem Modell geschätzt werden, weißes Rauschen sind, wenn sie sind, können wir die spezielle Passung annehmen, wenn nicht, müssen wir von vorn beginnen. Somit ist die BJ-Methodik ein iterativer Prozess. Schritt 4. Prognose: Einer der Gründe für die Beliebtheit der ARIMA-Modellierung ist der Erfolg bei der Prognose. In vielen Fällen sind die mit dieser Methode erhaltenen Prognosen zuverlässiger als jene, die aus der traditionellen ökonometrischen Modellierung, insbesondere bei kurzfristigen Prognosen, gewonnen werden. Betrachten wir diese vier Schritte im Detail. Wir verwenden die in Tabelle angegebenen BIP-Daten. 13 IDENTIFIKATION Die wichtigsten Werkzeuge zur Identifikation sind die Autokorrelationsfunktion (ACF), die partielle Autokorrelationsfunktion (PACF) und das resultierende Korrelogramm, die einfach die Diagramme von ACFs und PACFs gegen die Lag-Länge sind. Das Konzept der partiellen Autokorrelation ist analog zum Konzept des partiellen Regressionskoeffizienten. In dem k-variablen multiplen Regressionsmodell misst der k-te Regressionskoeffizient k die Änderungsrate des Mittelwertes des Regresses und für eine Einheitsänderung im k-ten Regressor X k, wobei der Einfluss aller anderen Regressoren konstant gehalten wird. In ähnlicher Weise misst die partielle Autokorrelation kk die Korrelation zwischen (Zeitreihen-) Beobachtungen, die k Zeitperioden auseinander sind, nachdem sie auf Korrelationen bei Zwischenverzögerungen (d. h. Verzögerung kleiner als k) kontrolliert wurden. Mit anderen Worten, die partielle Autokorrelation ist die Korrelation zwischen Yt und Yt-k nach Entfernen der Wirkung des Zwischenwerts Ys. In Abbildung zeigen wir das Korrelogramm und das Teil-Korrelogramm der GDP-Reihe. Aus dieser Figur zeichnen sich zwei Tatsachen ab: Zunächst sinkt der ACF sehr langsam und ACF bis zu 23 Verzögerungen sind individuell statistisch signifikant verschieden von Null, da sie alle außerhalb der 95 Konfidenzgrenzen liegen. Zweitens sinkt nach der ersten Verzögerung die PACF dramatisch, und alle PACFs nach der Verzögerung 1 sind statistisch unbedeutend. 16 Da die US-GDP-Zeitreihe nicht stationär ist, müssen wir sie stationär machen, bevor wir die Methodik der Box-Jenkins anwenden können. In der nächsten Abbildung haben wir die ersten Unterschiede des BIP aufgetragen. Anders als die vorhergehende Abbildung, beobachten wir keinen Trend in dieser Serie, vielleicht darauf hindeutet, dass die erste differenzierte GDP-Zeitreihe stationär ist. Eine formale Anwendung des Dickey-Fuller-Einheitswurzeltests zeigt, dass dies tatsächlich der Fall ist. Nun haben wir ein anderes Muster von ACF und PACE. Die ACFs bei den Verzögerungen 1, 8 und 12 scheinen statistisch von Null verschieden. Ungefähr 95 Vertrauensgrenzen für k sind und Aber bei allen anderen Verzögerungen sind nicht statistisch von Null verschieden. Dies gilt auch für die partiellen Autokorrelationen. 18 Wie kann nun das in Abbildung angegebene Korrelogramm das ARMA-Muster der GDP-Zeitreihe finden? Wir betrachten nur die erste differenzierte GDP-Reihe, weil sie stationär ist. Ein Weg, dies zu erreichen, besteht darin, die ACF und PACF und das zugehörige Korrelogramm einer ausgewählten Anzahl von ARMA-Prozessen wie AR (l), AR (2), MA (1), MA (2), ARMA (1, 1), ARIMA (2, 2) und so weiter. Da jedes dieser stochastischen Prozesse typische Muster von ACF und PACF aufweist, können wir, wenn die zu untersuchenden Zeitreihen einem dieser Muster entsprechen, die Zeitreihen mit diesem Prozess identifizieren. Natürlich müssen wir diagnostische Tests anwenden, um herauszufinden, ob das gewählte ARMA-Modell einigermaßen korrekt ist. 19 Was wir vornehmen wollen, ist, allgemeine Richtlinien zu geben (siehe Tabelle), wobei die Referenzen die Details der verschiedenen stochastischen Prozesse angeben können. Die ACFs und PACFs von AR (p) - und MA (q) - Prozessen haben entgegengesetzte Muster im Fall von AR (p), wenn die Wechselspannung geometrisch oder exponentiell abnimmt, aber die PACF schneidet nach einer gewissen Anzahl von Verzögerungen ab, Q) Verfahren. Tabelle: Theoretische Muster von ACF und PACF Typ des ModellsTypisches Muster des ACFTypischen Musters von PACF AR (p) Zerfälle exponentiell oder mit gedämpftem Sinuswellenmuster oder beides Signifikante Spikes durch Lags p MA (q) Signifikante Spikes durch Lags qDeclines exponentiell ARMA (p, Q) exponentieller Zerfall 20 ARIMA Identifizierung des US-BIP: Das Korrelogramm und das Teilkorrelogramm der stationären (nach dem ersten Differenzieren) US-BIP für 1991-IV, wie in der Abbildung gezeigt. Die Autokorrelationen sinken bis auf Lag 4, 12, die übrigen sind statistisch nicht verschieden von Null (die durchgezogenen Linien in dieser Abbildung geben die ungefähr 95 Konfidenzgrenzen). Die partiellen Autokorrelationen mit Spikes bei Lag 1, 8 und 12 scheinen statistisch signifikant, der Rest ist jedoch nicht, wenn der partielle Korrelationskoeffizient nur bei Verzögerung 1 signifikant war, konnten wir dies als AR (l) - Modell identifizieren. Nehmen wir also an, daß der Prozeß, der das (zuerst differenzierte) BIP erzeugt hat, höchstens ein AR (12) - Verfahren ist. Wir müssen nicht alle AR-Terme bis zu 12 einschließen, nur die AR-Terme bei Lag 1, 8 und 12 sind signifikant. 21 SCHÄTZUNG DES ARIMA-MODELLS Hiermit bezeichnen wir die ersten Unterschiede des US-BIP. Dann haben wir die folgenden Schätzungen erhalten: t (7.7547) (3.4695) () () R 2 d 22 DIAGNOSTISCHE KONTROLLE Wie wissen wir, dass das obige Modell eine angemessene Anpassung an die Daten ist? Um Residuen aus dem obigen Modell zu erhalten und um ACF und PACF dieser Residuen, z. B. bis zur Verzögerung 25, zu erhalten. Der geschätzte AC und PACF sind in Fig. 1 gezeigt. Wie diese Figur zeigt, ist keine der Autokorrelationen und partiellen Autokorrelationen einzeln statistisch signifikant. Auch ist die Summe der 25 quadratischen Autokorrelationen nicht statistisch signifikant, wie die Box-Pierce Q - und Ljung-Box-LB-Statistik zeigt. Das Correlogram von Autokorrelation und partieller Autokorrelation ergibt, daß die Residuen aus rein zufällig sind. Daher kann es nicht notwendig sein, nach einem anderen ARIMA-Modell zu suchen. 24 PROGNOSE Angenommen, auf der Basis des obigen Modells wollen wir das BIP für die ersten vier Quartale prognostizieren. Im obigen Modell ist die abhängige Variable jedoch eine Veränderung des BIP gegenüber dem Vorquartal. Deshalb können wir, wenn wir das oben genannte Modell verwenden, die Prognosen der BIP-Veränderungen zwischen dem ersten Quartal 1992 und dem vierten Quartal 1991, dem zweiten Quartal 1992 gegenüber dem ersten Quartal 1992 usw. erreichen GDP-Ebene anstatt ihre Änderungen, können wir rückgängig machen die erste Differenz-Transformation, die wir verwendet, um die Änderungen zu erhalten. (Mehr technisch integrieren wir die erste differenzierte Reihe.) 25 Um den Prognosewert des BIP (nicht BIP) zu erhalten. Wir schreiben das Modell als Y 1992, I - Y 1991, IV l Y 1991, IVJ 1991, III 8J 1989, IVJ 1989, III 12J 1988, IVJ 1988, III u 1992-I Das heißt Y 1992, Die Werte von, l, 8 und 12 liegen bereits vor. Die Werte von l, 8 und 12 sind bereits angegeben Bekannt aus der geschätzten Regression. Der Wert von u 1992-I wird als Null angenommen. Daher können wir leicht den Prognosewert von Y 1992-I erhalten. 26 Die numerische Schätzung dieses Prognosewerts ist J 1992, I () J 1991, IV J 1991, III () J 1989, IV - () J 1989, III () J 1988, IV () J 1988, III u 1992 - J (4868) (4862,7) (4859,7) (4845,6) (4779,7) (4734,5) Der Prognosewert des BIP für 1992-I liegt also bei 4877 Milliarden (1987 Dollar). Der tatsächliche Wert des realen BIP für 1992-I war Milliarden der Prognosefehler war eine Überschätzung von 3 Mrd. (veraltet) Prognose - Autoregressive Integrated Moving Average (ARIMA) Der Microsoft DataMarket wird im Ruhestand und diese API wurde veraltet. Dieser Dienst implementiert Autoregressive Integrated Moving Average (ARIMA), um Prognosen basierend auf den vom Benutzer bereitgestellten historischen Daten zu erzeugen. Wird die Nachfrage nach einem bestimmten Produkt in diesem Jahr erhöhen Kann ich meine Produktverkäufe für die Weihnachtszeit vorhersagen, damit ich mein Inventar effektiv planen kann Vorhersagemodelle sind geeignet, solche Fragen anzusprechen. Angesichts der bisherigen Daten untersuchen diese Modelle versteckte Trends und Saisonalität, um zukünftige Trends vorherzusagen. Probieren Sie Azure Machine Learning kostenlos aus Keine Kreditkarten - oder Azure-Abo erforderlich. Erste Schritte gt Dieser Webservice kann von Benutzern potentiell über eine mobile App, über eine Website oder sogar auf einem lokalen Computer verbraucht werden. Aber der Zweck des Web-Service ist auch als Beispiel dafür dienen, wie Azure Machine Learning verwendet werden, um Web-Services auf R-Code zu erstellen. Mit nur wenigen Zeilen von R-Code und Klicks einer Schaltfläche in Azure Machine Learning Studio kann ein Experiment mit R-Code erstellt und als Web-Service veröffentlicht werden. Der Webdienst kann dann auf dem Azure-Marktplatz veröffentlicht und von Benutzern und Geräten auf der ganzen Welt verbraucht werden, ohne dass eine Infrastruktureinrichtung vom Autor des Webdienstes eingerichtet wurde. Verbrauch von Web-Service Dieser Dienst akzeptiert 4 Argumente und berechnet die ARIMA-Prognosen. Die Eingabeargumente sind: Frequenz - Zeigt die Häufigkeit der Rohdaten an (täglich wöchentlich jährlich jährlich). Horizont - Zukunft Prognose Zeitrahmen. Datum - Hinzufügen in die neuen Zeitreihendaten für die Zeit. Wert - Hinzufügen in die neuen Zeitreihendatenwerte. Die Ausgabe des Dienstes ist die berechnete Prognosewerte. Proben-Eingang könnte sein: Frequenz - 12 Horizon - 12 Datum - 115201221520123152012415201251520126152012715201281520129152012101520121115201212152012 115201321520133152013415201351520136152013715201381520139152013101520131115201312152013 115201421520143152014415201451520146152014715201481520149152014 Value - 3.4793.683.8323.9413.7973.5863.5083.7313.9153.8443.6343.5493.5573.7853.7823.6013.5443.5563.653.7093.6823.511 3.4293.513.5233.5253.6263.6953.7113.7113.6933 .5713.509 Dieser Dienst, wie auf dem Azure-Marktplatz gehostet, ist ein OData-Dienst, den diese über POST - oder GET-Methoden aufgerufen werden können. Es gibt mehrere Möglichkeiten, den Dienst in einer automatisierten Weise zu verbrauchen (eine Beispiel-App ist hier). Starten des C-Codes für den Web-Service-Verbrauch: Erstellung des Web-Service Dieser Webservice wurde unter Verwendung von Azure Machine Learning erstellt. Für eine kostenlose Testversion sowie Einführungsvideos zum Erstellen von Experimenten und zum Veröffentlichen von Webdiensten. Sehen Sie bitte azureml. Unten ist ein Screenshot des Experiments, das den Webdienst und den Beispielcode für jedes der Module im Experiment erstellt hat. Aus Azure Machine Learning wurde ein neues Blindversuch erstellt. Beispiel-Eingangsdaten wurden mit einem vordefinierten Datenschema hochgeladen. Verbunden mit dem Datenschema ist ein Execute R Script-Modul, das das ARIMA-Prognosemodell mithilfe von Auto. arima - und Prognosefunktionen aus R erzeugt. Experimentfluss: Einschränkungen Dies ist ein sehr einfaches Beispiel für die ARIMA-Prognose. Wie aus dem obigen Beispielcode ersichtlich ist, wird keine Fehlererfassung durchgeführt, und der Dienst geht davon aus, dass alle Variablen kontinuierliche positive Werte sind und die Frequenz eine ganze Zahl größer als 1 sein sollte. Die Länge der Datums - und Wertvektoren sollte dieselbe sein . Die Datumsvariable sollte dem Format mmddyyyy entsprechen. Häufig gestellte Fragen zum Verbrauch des Webdienstes oder zur Veröffentlichung auf dem Marktplatz finden Sie hier.


No comments:

Post a Comment