Saturday 18 February 2017

Durchschnittlicher Prozess Zweiter Ordnung

4.2 Lineare stationäre Modelle für Zeitreihen, in denen die Zufallsvariable die Innovation genannt wird, weil sie den Teil der beobachteten Variablen darstellt, der aufgrund der vergangenen Werte nicht vorhersehbar ist. Das allgemeine Modell (4.4) geht davon aus, dass das Ausgangssignal eines linearen Filters ist, der die bisherigen Innovationen transformiert, dh einen linearen Prozess darstellt. Diese Linearitätsannahme basiert auf dem Wolds-Zerlegungstheorem (Wold 1938), das besagt, dass jeder diskrete stationäre Kovarianzprozess als Summe zweier nicht korrelierter Prozesse ausgedrückt werden kann, wobei er rein deterministisch ist und ein rein indeterministischer Prozess ist, der als linear geschrieben werden kann Summe des Innovationsprozesses: wo ist eine Folge von seriell unkorrelierten Zufallsvariablen mit null mittlerer und gemeinsamer Varianz. Voraussetzung für die Stationarität. Die Formulierung (4.4) ist eine endliche Reparametrisierung der unendlichen Darstellung (4.5) - (4.6) mit der Konstanten. Es wird üblicherweise in Form des durch den definierten Verzögerungsoperators geschrieben, der einen kürzeren Ausdruck ergibt: wobei die Verzögerungsoperatorpolynome und das Polynom bzw. das Polynom aufgerufen werden. Um eine Parameterredundanz zu vermeiden, gehen wir davon aus, dass es keine gemeinsamen Faktoren zwischen den Komponenten und den Komponenten gibt. Als nächstes werden wir die Handlung einiger Zeitreihen studieren, die von stationären Modellen mit dem Ziel entwickelt werden, die Hauptmuster ihrer zeitlichen Entwicklung zu bestimmen. Abbildung 4.2 enthält zwei Serien, die mit Hilfe des Genarma-Quantlets aus den folgenden stationären Prozessen generiert werden: Abbildung 4.2: Zeitreihen, die von Modellen erzeugt werden Erwartungsgemäß bewegen sich beide Zeitreihen um ein konstantes Niveau ohne Änderungen der Varianz aufgrund der stationären Eigenschaft. Darüber hinaus ist dieses Niveau nahe dem theoretischen Mittel des Prozesses, und der Abstand jedes Punktes zu diesem Wert ist sehr selten außerhalb der Grenzen. Darüber hinaus zeigt die Entwicklung der Serie lokale Abweichungen vom Mittelwert des Prozesses, der als das mittlere Reversionsverhalten, das die stationären Zeitreihen charakterisiert, bekannt ist. Wir wollen die Eigenschaften der verschiedenen Prozesse genauer untersuchen, insbesondere die Autokovarianzfunktion, die die dynamischen Eigenschaften eines stochastischen stationären Prozesses erfasst. Diese Funktion hängt von den Maßeinheiten ab, so dass das übliche Maß für den Grad der Linearität zwischen den Variablen der Korrelationskoeffizient ist. Im Fall stationärer Prozesse ist der Autokorrelationskoeffizient bei Verzögerung, bezeichnet mit, als die Korrelation zwischen und definiert. Somit ist die Autokorrelationsfunktion (ACF) die Autokovarianzfunktion, die durch die Varianz standardisiert ist. Die Eigenschaften des ACF sind: Angesichts der Symmetrieeigenschaft (4.10) wird der ACF in der Regel durch ein Balkendiagramm an den nichtnegativen Verzögerungen dargestellt, das als einfaches Korrelogramm bezeichnet wird. Ein weiteres nützliches Werkzeug zur Beschreibung der Dynamik eines stationären Prozesses ist die partielle Autokorrelationsfunktion (PACF). Der partielle Autokorrelationskoeffizient bei Verzögerung misst die lineare Zuordnung zwischen den Werten der Zwischenwerte. Daher ist es nur der Koeffizient im linearen Regressionsmodell: Die Eigenschaften der PACF sind äquivalent zu denen des ACF (4.8) - (4.10) und es ist leicht zu beweisen, dass (Box und Jenkins 1976). Wie die ACF hängt die partielle Autokorrelationsfunktion nicht von den Maßeinheiten ab und wird durch ein Balkendiagramm an den nichtnegativen Verzögerungen dargestellt, das als partielles Korrelogramm bezeichnet wird. Die dynamischen Eigenschaften jedes stationären Modells bestimmen eine bestimmte Form der Korrelogramme. Darüber hinaus kann gezeigt werden, dass für jeden stationären Prozess, beide Funktionen, ACF und PACF, nähern sich Null, wie die Verzögerung tendiert zu unendlich. Die Modelle sind nicht immer stationäre Prozesse, daher ist es notwendig, zunächst die Bedingungen für die Stationarität zu bestimmen. Es gibt Unterklassen von Modellen, die besondere Eigenschaften haben, so dass wir sie getrennt studieren. Also, wenn und, es ist ein weißes Rauschen Prozess. Wenn es ein reiner gleitender Durchschnitt der Ordnung ist. , Und wenn es ein reiner autoregressiver Prozess der Ordnung ist. . 4.2.1 Weißes Rauschen Das einfachste Modell ist ein weißes Rauschen, bei dem es sich um eine Folge von unkorrelierten Nullmittelwerten mit konstanter Varianz handelt. Es ist mit bezeichnet. Dieser Prozeß ist stationär, wenn seine Varianz endlich ist, da die Bedingung (4.1) - (4.3) verifiziert wird. Zudem ist die Autokovarianzfunktion nicht korreliert: Abbildung 4.7 zeigt zwei simulierte Zeitreihen, die aus Prozessen mit Nullmittelwerten und Parametern und -0.7 erzeugt wurden. Der autoregressive Parameter misst die Persistenz vergangener Ereignisse in die aktuellen Werte. Wenn zum Beispiel ein positiver (oder negativer) Schock positiv (oder negativ) für einen längeren Zeitraum wirkt, der um so größer ist, je größer der Wert von ist. Wenn sich die Serie durch den Wechsel in Richtung der Wirkung, dh einen Schock, der sich positiv auf das Moment auswirkt, mehr grob um den Mittelpunkt bewegt, hat dies negative Auswirkungen auf, positiv. Der Prozeß ist immer invertierbar und er ist stationär, wenn der Parameter des Modells in der Region liegt. Um den stationären Zustand zu beweisen, schreiben wir zuerst die in der gleitenden Durchschnittsform durch rekursive Substitution von in (4.14): Abbildung 4.8: Populations-Korrelogramme für Prozesse Das heißt, ist eine gewichtete Summe aus vergangenen Innovationen. Die Gewichte hängen vom Wert des Parameters ab: wann, (oder) der Einfluss einer gegebenen Innovation durch die Zeit zunimmt (oder abnimmt). Erwartungen an (4.15), um den Mittelwert des Prozesses zu berechnen, erhalten wir: Angenommen, das Ergebnis ist eine Summe unendlicher Glieder, die für alle Werte nur dann konvergiert, wenn in diesem Fall. Ein ähnliches Problem erscheint, wenn wir das zweite Moment berechnen. Der Beweis kann vereinfacht werden unter der Annahme, dass, das heißt,. Dann ist Varianz: Wiederum geht die Varianz in unendlich bis auf, in welchem ​​Fall. Es ist leicht zu überprüfen, dass sowohl der Mittelwert und die Varianz explodieren, wenn diese Bedingung nicht hält. Die Autokovarianzfunktion eines stationären Prozesses ist daher die Autokorrelationsfunktion für das stationäre Modell: Das heißt, das Korrelogramm zeigt einen exponentiellen Abfall mit positiven Werten immer, wenn positiv und bei negativ positiven Schwingungen if negativ ist (siehe Abbildung 4.8). Weiterhin nimmt die Abklinggeschwindigkeit ab, je größer der Wert ist, desto stärker ist die dynamische Korrelation im Prozess. Schließlich gibt es einen Cutoff in der partiellen Autokorrelationsfunktion bei der ersten Verzögerung. Abbildung 4.9: Populations-Korrelogramme für Prozesse Es kann gezeigt werden, dass der allgemeine Prozess (Box und Jenkins 1976): Ist nur stationär, wenn die Wurzeln der charakteristischen Gleichung des Polynoms außerhalb des Einheitskreises liegen. Der Mittelwert eines stationären Modells ist. Es ist immer invertierbar für alle Werte der Parameter. Its ACF geht auf null exponentiell, wenn die Wurzeln der realen oder mit Sinus-Cosinus-Welle Fluktuationen, wenn sie komplex sind. Its PACF hat einen Cutoff auf der Lag, das heißt, Korrelokolle für komplexere Modelle, wie z. B. die, sind in Abbildung 4.9 zu sehen. Sie sind den Mustern sehr ähnlich, wenn die Prozesse reale Wurzeln haben, nehmen aber eine sehr unterschiedliche Form ein, wenn die Wurzeln komplex sind (siehe das erste Grafikpaar der Abbildung 4.9). 4.2.4 Autoregressives Moving Average Modell Das allgemeine (endliche) autoregressive Moving Average Modell der Befehle ist: Science and Education Publishing Es ist offensichtlich, dass die ACFs in (1.4) und die in (1.8) Lag zwei. Dies deutet darauf hin, dass ein gleitender Durchschnittsprozess der Ordnung zwei und ein reiner diagonaler bilinearer Zeitreihenprozess der Ordnung zwei ähnliche Autokorrelationsstrukturen aufweisen. Infolgedessen besteht die Möglichkeit, einen reinen diagonalen bilinearen Prozess der Ordnung zwei als einen gleitenden Durchschnittsprozess der Ordnung zwei zu klassifizieren. Die Leichtigkeit, mit der lineare Modelle angepasst werden, und die Praxis der Annäherung nichtlinearer Modelle durch lineare Modelle können auch eine Fehlspezifikation des nichtlinearen reinen diagonalen bilinearen Prozesses der Ordnung zwei verursachen. Aus dem Vorstehenden ist es unerlässlich, die statistische Implikation der vorgenannten Modell-Fehlklassifizierung zu untersuchen. In dieser Hinsicht konzentrieren wir uns auf die Straffunktion, die mit der Fehlklassifizierung eines PDB (2) - Prozesses als MA (2) - Verfahren einhergeht. 2. Beziehung zwischen den Parametern des reinen diagonalen bilinearen Prozesses der Ordnung 2 und des gleitenden durchschnittlichen Prozesses der Ordnung 2 Nachdem wir festgestellt haben, dass der gleitende mittlere Prozess der Ordnung zwei und der reine diagonale bilineare Prozess der Ordnung zwei ähnliche Autokorrelationsstrukturen aufweisen, lohnt es sich, daraus abzuleiten Die Beziehung zwischen den Parametern der beiden Modelle. Diese Beziehungen helfen uns, die Strafenfunktion für die Fehlklassifikation des nichtlinearen Modells als konkurrierendes lineares Modell zu erhalten. Die Methode der Momente, die die Gleichsetzung des ersten und des zweiten Moments des reinen diagonalen bilinearen Modells mit den entsprechenden Momenten des nicht gleitenden Durchschnittsprozesses der Ordnung zwei beinhaltet, wird zu diesem Zweck verwendet. Wenn wir die vollständige Tabelle mit 2129 Sätzen von Werten betrachten, können wir sehen, dass die Straffunktion für die Fehlklassifizierung eines PDB (2) - Prozesses als MA (2) - Prozess (P) positive Werte annimmt Für alle Werte von,. . Der positive Wert der Strafe für die Missklassifizierung eines PDB (2) - Verfahrens als MA (2) - Verfahren zeigt, dass diese Fehlklassifizierung zu einer Erhöhung der Varianz der Fehler führt. Dieser Befund stimmt mit den Ergebnissen überein, die in Bezug auf die Fehlklassifikation eines PDB (1) - Prozesses als MA (1) - Verfahren von 6 erhalten wurden. Für prädiktive Zwecke müssen wir die Beziehung zwischen P und. Zuerst stellen wir P gegen jeden von. Fig. 1 zeigt die Darstellung von P gegen. Tabelle 1. Strafen für verschiedene Parameterwerte von MA (2) Verfahren und PDB (2) Verfahren Der p-Wert von 0,00 in der Tabelle 3 impliziert, dass das passende Regressionsmodell geeignet ist, die Beziehung zwischen P und P zu beschreiben. 4. Schlussfolgerung In dieser Studie haben wir die Wirkung einer falschen Klassifizierung eines reinen diagonalen bilinearen Prozesses der Ordnung 2 als einen gleitenden Durchschnittsprozess der Ordnung 2 bestimmt. Eine Strafenfunktion wurde definiert und wurde verwendet, um Strafen für die Fehlklassifizierung des reinen diagonalen bilinearen Prozesses der Ordnung zwei als den gleitenden Durchschnittsprozess der Ordnung zwei zu berechnen, der auf verschiedenen Sätzen von Werten der Parameter der beiden Prozesse basiert. Die berechneten Strafen haben positive Werte angenommen. Dies zeigte eine Erhöhung der Fehlerabweichung aufgrund der Fehlklassifizierung des reinen diagonalen bilinearen Prozesses der Ordnung zwei als einen gleitenden Durchschnittsprozess der Ordnung zwei an. Ein quadratisches Regressionsmodell wurde als geeignet angesehen, um die Strafen auf der Basis der Parameter des reinen diagonalen bilinearen Prozesses der Ordnung zwei zu prognostizieren. Referenzen Bessels, S. (2006). Ein Schritt jenseits der lösbaren Gleichung. Staff. science. uu. ncAfstudeerscriptieSanderBessels. pdf (Diese Seite wurde im Juni 2013 besucht). Box, G. E. P. Jenkins, G. M. und Reinsel, G. C. (1994). Zeitreihenanalyse: Prognose und Kontrolle. 3. Aufl. Prentice-Hall, Englewood Cliffs, NJDie Auto-Regression und der gleitende Durchschnitt Chrysoula Dimitriou-Fakalou Abteilung für Statistische Wissenschaft, University College London, Gower Street, London, UK erhielt 7. Mai 2008. Revised 18. Dezember 2008. Akzeptiert 22. Dezember 2009 . Wir erforschen einige Beziehungen in den Eigenschaften zweiter Ordnung einer kausalen Auto-Regression und einem invertierbaren gleitenden Durchschnitt mit demselben Polynom. Wir zeigen, dass die inverse Varianzmatrix für Zufallsvariablen aus der Auto-Regression gleich einer bedingten Varianzmatrix von Gaußschen Zufallsvariablen aus dem gleitenden Mittelwert und umgekehrt ist. Während die inverse Varianzmatrix für die Auto-Regression explizit geschrieben werden kann, ist es uns gelungen, die genaue Gaußsche Wahrscheinlichkeit aufeinanderfolgender Beobachtungen aus dem gleitenden Durchschnittsprozess aufzuschreiben, indem die Eigenschaften der Auto-Regression verwendet werden. Gaußsche Wahrscheinlichkeit Innovationsalgorithmus Inverse Varianzmatrix Copyright 2010 Elsevier B. V. Alle Rechte vorbehalten. Zitieren von Artikeln ()


No comments:

Post a Comment