Moving average vs autoregressive




Moving average vs autoregressiveEin RIMA steht fur Autoregressive Integrated Moving Average Modelle. Univariate (Einzelvektor) ARIMA ist eine Prognosemethode, die die zukunftigen Werte einer Serie, die vollstandig auf ihrer eigenen Tragheit basiert, projiziert. Seine Hauptanwendung liegt im Bereich der kurzfristigen Prognose mit mindestens 40 historischen Datenpunkten. Es funktioniert am besten, wenn Ihre Daten eine stabile oder konsistente Muster im Laufe der Zeit mit einem Minimum an Ausrei?ern zeigt. Manchmal nennt man Box-Jenkins (nach den ursprunglichen Autoren), ARIMA ist in der Regel uberlegen exponentielle Glattung Techniken, wenn die Daten relativ lange und die Korrelation zwischen vergangenen Beobachtungen ist stabil. Wenn die Daten kurz oder stark fluchtig sind, kann eine gewisse Glattungsmethode besser ablaufen. Wenn Sie nicht uber mindestens 38 Datenpunkte verfugen, sollten Sie eine andere Methode als ARIMA betrachten. Der erste Schritt bei der Anwendung der ARIMA-Methodik ist die Uberprufung der Stationaritat. Stationaritat impliziert, dass die Reihe auf einem ziemlich konstanten Niveau uber Zeit bleibt. Wenn ein Trend besteht, wie in den meisten wirtschaftlichen oder geschaftlichen Anwendungen, dann sind Ihre Daten nicht stationar. Die Daten sollten auch eine konstante Varianz in ihren Schwankungen im Laufe der Zeit zeigen. Dies ist leicht zu sehen mit einer Serie, die stark saisonal und wachst mit einer schnelleren Rate. In einem solchen Fall werden die Hohen und Tiefen der Saisonalitat im Laufe der Zeit dramatischer. Ohne dass diese Stationaritatsbedingungen erfullt sind, konnen viele der mit dem Prozess verbundenen Berechnungen nicht berechnet werden. Wenn eine grafische Darstellung der Daten Nichtstationaritat anzeigt, dann sollten Sie die Serie unterscheiden. Die Differenzierung ist eine hervorragende Moglichkeit, eine nichtstationare Serie in eine stationare zu transformieren. Dies geschieht durch Subtrahieren der Beobachtung in der aktuellen Periode von der vorherigen. Wenn diese Transformation nur einmal zu einer Reihe erfolgt, sagen Sie, dass die Daten zuerst unterschieden wurden. Dieser Prozess im Wesentlichen eliminiert den Trend, wenn Ihre Serie wachst mit einer ziemlich konstanten Rate. Wenn es mit steigender Rate wachst, konnen Sie das gleiche Verfahren anwenden und die Daten erneut differenzieren. Ihre Daten wurden dann zweite differenziert werden. Autokorrelationen sind Zahlenwerte, die angeben, wie sich eine Datenreihe mit der Zeit auf sich bezieht. Genauer gesagt misst es, wie stark Datenwerte bei einer bestimmten Anzahl von Perioden auseinander uber die Zeit miteinander korreliert werden. Die Anzahl der Perioden wird in der Regel als Verzogerung bezeichnet. Zum Beispiel mi?t eine Autokorrelation bei Verzogerung 1, wie die Werte 1 Periode auseinander in der Reihe miteinander korreliert sind. Eine Autokorrelation bei Verzogerung 2 misst, wie die Daten, die zwei Perioden voneinander getrennt sind, uber die gesamte Reihe miteinander korrelieren. Autokorrelationen konnen im Bereich von 1 bis -1 liegen. Ein Wert nahe 1 gibt eine hohe positive Korrelation an, wahrend ein Wert nahe -1 impliziert eine hohe negative Korrelation. Diese Ma?nahmen werden meist durch grafische Darstellungen, sogenannte Korrelagramme, ausgewertet. Ein Korrelationsdiagramm zeigt die Autokorrelationswerte fur eine gegebene Reihe bei unterschiedlichen Verzogerungen. Dies wird als Autokorrelationsfunktion bezeichnet und ist bei der ARIMA-Methode sehr wichtig. Die ARIMA-Methodik versucht, die Bewegungen in einer stationaren Zeitreihe als Funktion von autoregressiven und gleitenden Durchschnittsparametern zu beschreiben. Diese werden als AR-Parameter (autoregessiv) und MA-Parameter (gleitende Mittelwerte) bezeichnet. Ein AR-Modell mit nur einem Parameter kann als geschrieben werden. X (t) A (1) X (t-1) E (t) wobei X (t) Zeitreihen A (1) der autoregressive Parameter der Ordnung 1 X (t-1) (T) der Fehlerterm des Modells Dies bedeutet einfach, dass jeder gegebene Wert X (t) durch eine Funktion seines vorherigen Wertes X (t-1) plus einen unerklarlichen Zufallsfehler E (t) erklart werden kann. Wenn der geschatzte Wert von A (1) 0,30 betrug, dann ware der aktuelle Wert der Reihe mit 30 seines vorherigen Wertes 1 verknupft. Naturlich konnte die Serie auf mehr als nur einen vergangenen Wert bezogen werden. Zum Beispiel ist X (t) A (1) X (t-1) A (2) X (t-2) E (t) Dies zeigt an, dass der aktuelle Wert der Reihe eine Kombination der beiden unmittelbar vorhergehenden Werte ist, X (t-1) und X (t-2) zuzuglich eines Zufallsfehlers E (t). Unser Modell ist nun ein autoregressives Modell der Ordnung 2. Moving Average Models: Eine zweite Art von Box-Jenkins-Modell wird als gleitendes Durchschnittsmodell bezeichnet. Obwohl diese Modelle dem AR-Modell sehr ahnlich sind, ist das Konzept dahinter ganz anders. Bewegliche Durchschnittsparameter beziehen sich auf das, was in der Periode t stattfindet, nur auf die zufalligen Fehler, die in vergangenen Zeitperioden aufgetreten sind, dh E (t-1), E (t-2) usw. anstatt auf X (t-1), X T-2), (Xt-3) wie in den autoregressiven Ansatzen. Ein gleitendes Durchschnittsmodell mit einem MA-Begriff kann wie folgt geschrieben werden. X (t) - B (1) E (t-1) E (t) Der Begriff B (1) wird als MA der Ordnung 1 bezeichnet. Das negative Vorzeichen vor dem Parameter wird nur fur Konventionen verwendet und in der Regel ausgedruckt Automatisch von den meisten Computerprogrammen. Das obige Modell sagt einfach, dass jeder gegebene Wert von X (t) direkt nur mit dem Zufallsfehler in der vorherigen Periode E (t-1) und mit dem aktuellen Fehlerterm E (t) zusammenhangt. Wie im Fall von autoregressiven Modellen konnen die gleitenden Durchschnittsmodelle auf ubergeordnete Strukturen mit unterschiedlichen Kombinationen und gleitenden mittleren Langen erweitert werden. Die ARIMA-Methodik erlaubt es auch, Modelle zu erstellen, die sowohl autoregressive als auch gleitende Durchschnittsparameter zusammenfuhren. Diese Modelle werden oft als gemischte Modelle bezeichnet. Obwohl dies fur eine kompliziertere Prognose-Tool macht, kann die Struktur tatsachlich simulieren die Serie besser und produzieren eine genauere Prognose. Pure Modelle implizieren, dass die Struktur nur aus AR oder MA-Parameter besteht - nicht beides. Die Modelle, die von diesem Ansatz entwickelt werden, werden in der Regel als ARIMA-Modelle bezeichnet, da sie eine Kombination aus autoregressiver (AR), Integration (I) verwenden, die sich auf den umgekehrten Prozess der Differenzierung bezieht, um die Prognose zu erzeugen. Ein ARIMA-Modell wird ublicherweise als ARIMA (p, d, q) angegeben. Dies ist die Reihenfolge der autoregressiven Komponenten (p), der Anzahl der differenzierenden Operatoren (d) und der hochsten Ordnung des gleitenden Mittelwerts. Beispielsweise bedeutet ARIMA (2,1,1), dass Sie ein autoregressives Modell zweiter Ordnung mit einer ersten gleitenden Durchschnittskomponente haben, deren Serie einmal differenziert wurde, um die Stationaritat zu induzieren. Auswahl der richtigen Spezifikation: Das Hauptproblem in der klassischen Box-Jenkins versucht zu entscheiden, welche ARIMA-Spezifikation zu verwenden - i. e. Wie viele AR - und / oder MA-Parameter einzuschlie?en sind. Dies ist, was viel von Box-Jenkings 1976 dem Identifikationsproze? gewidmet wurde. Es hing von der graphischen und numerischen Auswertung der Stichprobenautokorrelation und der partiellen Autokorrelationsfunktionen ab. Nun, fur Ihre grundlegenden Modelle, ist die Aufgabe nicht allzu schwierig. Jeder hat Autokorrelationsfunktionen, die eine bestimmte Weise aussehen. Allerdings, wenn Sie gehen in der Komplexitat, die Muster sind nicht so leicht zu erkennen. Um es schwieriger zu machen, stellen Ihre Daten nur eine Probe des zugrundeliegenden Prozesses dar. Das bedeutet, dass Stichprobenfehler (Ausrei?er, Messfehler, etc.) den theoretischen Identifikationsprozess verzerren konnen. Dies ist der Grund, warum traditionelle ARIMA-Modellierung eher eine Kunst als eine Wissenschaft ist. Autoregressive Moving Average ARMA (p, q) Modelle fur die Zeitreihenanalyse - Teil 1 Im letzten Artikel sahen wir zufallige Wanderungen und wei?es Rauschen als grundlegende Zeitreihenmodelle fur bestimmte Finanzinstrumente wie Tagesaktien und Aktienindexpreise. Wir fanden, dass in einigen Fallen ein zufalliges Wanderungsmodell nicht ausreicht, um das vollstandige Autokorrelationsverhalten des Instruments zu erfassen, das anspruchsvollere Modelle motiviert. In den nachsten Artikeln werden wir drei Modelltypen diskutieren, namlich das Autoregressive (AR) - Modell der Ordnung p, das Moving Average (MA) - Modell der Ordnung q und das gemischte Autogressive Moving Average (ARMA) - Modell der Ordnung p , Q. Diese Modelle werden uns helfen zu erfassen oder zu erklaren, mehr der seriellen Korrelation in einem Instrument. Letztlich werden sie uns ein Mittel zur Prognose der kunftigen Preise bieten. Es ist jedoch bekannt, dass finanzielle Zeitreihen eine Eigenschaft besitzen, die als Volatilitats-Clusterung bekannt ist. Das hei?t, die Fluchtigkeit des Instruments ist nicht zeitlich konstant. Der technische Begriff fur dieses Verhalten wird als bedingte Heteroskedastizitat bezeichnet. Da die AR-, MA - und ARMA-Modelle nicht bedingt heteroskedastisch sind, dh sie nicht das Volatilitats-Clustering berucksichtigen, benotigen wir letztlich ein anspruchsvolleres Modell fur unsere Prognosen. Zu diesen Modellen gehoren das Autogressive Conditional Heteroskedastic (ARCH) Modell und das Generalized Autogressive Conditional Heteroskedastic (GARCH) Modell und die vielen Varianten davon. GARCH ist in Quantfinance besonders bekannt und wird vor allem fur finanzielle Zeitreihensimulationen als Mittel zur Risikoabschatzung eingesetzt. Wie bei allen QuantStart-Artikeln mochte ich aber diese Modelle aus einfacheren Versionen aufbauen, damit wir sehen konnen, wie jede neue Variante unsere Vorhersagefahigkeit andert. Trotz der Tatsache, dass AR, MA und ARMA relativ einfache Zeitreihenmodelle sind, sind sie die Grundlage fur kompliziertere Modelle wie den Autoregressive Integrated Moving Average (ARIMA) und die GARCH-Familie. Daher ist es wichtig, dass wir sie studieren. Einer unserer ersten Trading-Strategien in der Zeitreihe Artikel-Serie wird es sein, ARIMA und GARCH zu kombinieren, um die Preise n Perioden im Voraus vorherzusagen. Allerdings mussen wir warten, bis weve diskutiert sowohl ARIMA und GARCH separat, bevor wir sie auf eine echte Strategie anwenden Wir werden in diesem Artikel werden wir einige neue Zeitreihen-Konzepte, die gut fur die restlichen Methoden, namlich streng zu skizzieren Stationaritat und dem Akaike-Informationskriterium (AIC). Im Anschluss an diese neuen Konzepte werden wir dem traditionellen Muster fur das Studium neuer Zeitreihenmodelle folgen: Begrundung - Die erste Aufgabe ist es, einen Grund dafur zu liefern, warum sich ein bestimmtes Modell als Quants interessierte. Warum stellen wir das Zeitreihenmodell vor Welche Auswirkungen kann es erfassen Was gewinnen wir (oder verlieren), indem wir zusatzliche Komplexitat hinzufugen Definition - Wir mussen die vollstandige mathematische Definition (und damit verbundene Notation) des Zeitreihenmodells zur Minimierung bereitstellen Jede Unklarheit. Eigenschaften der zweiten Ordnung - Wir diskutieren (und in einigen Fallen) die Eigenschaften zweiter Ordnung des Zeitreihenmodells, das sein Mittel, seine Varianz und seine Autokorrelationsfunktion enthalt. Correlogram - Wir verwenden die Eigenschaften zweiter Ordnung, um ein Korrektramm einer Realisierung des Zeitreihenmodells zu zeichnen, um sein Verhalten zu visualisieren. Simulation - Wir simulieren Realisierungen des Zeitreihenmodells und passen dann das Modell an diese Simulationen an, um sicherzustellen, dass wir genaue Implementierungen haben und den Anpassungsprozess verstehen. Echte Finanzdaten - Wir passen das Zeitreihenmodell auf echte Finanzdaten an und betrachten das Korrektramm der Residuen, um zu sehen, wie das Modell die serielle Korrelation in der ursprunglichen Serie berucksichtigt. Vorhersage - Wir erstellen n-Schritt-Voraus-Prognosen des Zeitreihenmodells fur besondere Realisierungen, um letztendlich Handelssignale zu erzeugen. Fast alle Artikel, die ich auf Zeitreihenmodellen schreibe, werden in dieses Muster fallen und es wird uns erlauben, die Unterschiede zwischen jedem Modell leicht zu vergleichen, da wir weitere Komplexitat hinzufugen. Wurden zu Beginn mit Blick auf strenge Stationaritat und die AIC. Strengst stationar Wir haben die Definition der Stationaritat in dem Artikel uber die serielle Korrelation. Da wir jedoch in den Bereich vieler Finanzserien mit verschiedenen Frequenzen treten, mussen wir sicherstellen, dass unsere (eventuellen) Modelle die zeitlich variierende Volatilitat dieser Serien berucksichtigen. Insbesondere mussen wir ihre Heteroskedastizitat berucksichtigen. Wir werden auf dieses Problem sto?en, wenn wir versuchen, bestimmte Modelle zu historischen Serien zu passen. Grundsatzlich konnen nicht alle seriellen Korrelationen in den Resten von eingebauten Modellen berucksichtigt werden, ohne Heteroskedastizitat zu berucksichtigen. Das bringt uns zuruck zur Stationaritat. Eine Serie ist nicht stationar in der Varianz, wenn sie zeitvariable Volatilitat hat, per Definition. Dies motiviert eine rigorosere Definition der Stationaritat, namlich eine strenge Stationaritat: Strengst stationare Serie Ein Zeitreihenmodell ist streng stationar, wenn die gemeinsame statistische Verteilung der Elemente x, ldots, x die gleiche ist wie die von xm, ldots, xm, Fur alle ti, m. Man kann an diese Definition nur denken, da? die Verteilung der Zeitreihen fur jede zeitliche Verschiebung unverandert bleibt. Insbesondere sind das Mittel und die Varianz rechtzeitig fur eine streng stationare Reihe konstant und die Autokovarianz zwischen xt und xs (nur) hangt nur von der absoluten Differenz von t und s, t-s ab. In zukunftigen Beitragen werden wir streng stationare Serien besprechen. Akaike Information Criterion Ich erwahnte in fruheren Artikeln, dass wir schlie?lich zu prufen, wie die Wahl zwischen getrennten besten Modelle. Dies gilt nicht nur fur die Zeitreihenanalyse, sondern auch fur das maschinelle Lernen und generell fur die Statistik im Allgemeinen. Die beiden Hauptmethoden (vorlaufig) sind das Akaike Information Criterion (AIC) und das Bayesian Information Criterion (wie wir mit unseren Artikeln uber Bayesian Statistics weiter vorankommen). Nun kurz die AIC, wie es in Teil 2 des ARMA Artikel verwendet werden. AIC ist im Wesentlichen ein Hilfsmittel zur Modellauswahl. Das hei?t, wenn wir eine Auswahl von statistischen Modellen (einschlie?lich Zeitreihen) haben, dann schatzt die AIC die Qualitat jedes Modells, relativ zu den anderen, die wir zur Verfugung haben. Es basiert auf Informationstheorie. Das ist ein sehr interessantes, tiefes Thema, das wir leider nicht in zu viel Detail gehen konnen. Es versucht, die Komplexitat des Modells, die in diesem Fall bedeutet die Anzahl der Parameter, wie gut es passt die Daten. Lets eine Definition: Akaike Information Criterion Wenn wir die Likelihood-Funktion fur ein statistisches Modell, das k Parameter hat, und L maximiert die Wahrscheinlichkeit. Dann ist das Akaike Information Criterion gegeben durch: Das bevorzugte Modell, aus einer Auswahl von Modellen, hat die minium AIC der Gruppe. Sie konnen sehen, dass die AIC wachst mit der Anzahl der Parameter, k, erhoht, aber reduziert wird, wenn die negative Log-Likelihood erhoht. Im Wesentlichen bestraft sie Modelle, die uberma?ig sind. Wir werden AR, MA und ARMA Modelle von unterschiedlichen Auftragen erstellen und eine Moglichkeit, das beste Modell zu wahlen, das zu einem bestimmten Datensatz passt, ist, die AIC zu verwenden. Dies ist, was gut tun, im nachsten Artikel, vor allem fur ARMA Modelle. Autoregressive (AR) Modelle der Ordnung p Das erste Modell, das die Grundlage von Teil 1 bildet, ist das autoregressive Modell der Ordnung p, oft verkurzt zu AR (p). Im vorherigen Artikel betrachteten wir den zufalligen Weg. Wobei jeder Term xt nur von dem vorherigen Term x und einem stochastischen wei?en Rauschterm abhangt, wt: Das autoregressive Modell ist einfach eine Erweiterung des zufalligen Wegs, der Terme weiter zuruck in der Zeit enthalt. Die Struktur des Modells ist linear. Das hei?t, das Modell hangt linear von den vorherigen Bedingungen ab, wobei fur jeden Term Koeffizienten vorliegen. Dies ist, wo die regressive kommt aus der autoregressive. Es ist im Wesentlichen ein Regressionsmodell, bei dem die vorherigen Begriffe die Pradiktoren sind. Autoregressives Modell der Ordnung p Ein Zeitreihenmodell ist ein autoregressives Modell der Ordnung p. AR (p), wenn: begin xt alpha1 x ldots alphap x wt sum p alpha x wt end Wo ist wei?es Rauschen und alpha in mathbb, mit alphap neq 0 fur einen autoregressiven p-order Prozess. Wenn wir den Backward Shift Operator betrachten. (Siehe vorheriger Artikel), dann konnen wir das obige als eine Funktion theta folgenderma?en umschreiben: begin thetap () xt (1 - alpha1 - alpha2 2 - ldots - alphap) xt wt Ende Vielleicht das erste, was uber das AR (p) Ist, dass ein zufalliger Weg einfach AR (1) mit alpha1 gleich Eins ist. Wie oben erwahnt, ist das autogressive Modell eine Erweiterung des zufalligen Weges, so dass dies sinnvoll ist. Es ist einfach, Vorhersagen mit dem AR (p) - Modell zu jeder Zeit t vorzunehmen, sobald wir die alphai-Koeffizienten bestimmt haben, unsere Schatzung Wird einfach: anfangen Hut t alpha1 x ldots alphap x end So konnen wir n-Schritt voraus Prognosen durch die Herstellung Hut t, Hut, Hut, etc. bis zu Hut. Tatsachlich werden wir, wenn wir die ARMA-Modelle in Teil 2 betrachten, die R-Vorhersagefunktion verwenden, um Prognosen (zusammen mit Standardfehler-Konfidenzintervallbandern) zu erzeugen, die uns helfen, Handelssignale zu erzeugen. Stationaritat fur autoregressive Prozesse Eines der wichtigsten Aspekte des AR (p) - Modells ist, dass es nicht immer stationar ist. Tatsachlich hangt die Stationaritat eines bestimmten Modells von den Parametern ab. Ive beruhrte dieses vorher in einem vorhergehenden Artikel. Um zu bestimmen, ob ein AR (p) - Proze? stationar ist oder nicht, mussen wir die charakteristische Gleichung losen. Die charakteristische Gleichung ist einfach das autoregressive Modell, geschrieben in Ruckwartsverschiebung Form, auf Null gesetzt: Wir losen diese Gleichung fur. Damit das bestimmte autoregressive Verfahren stationar ist, brauchen wir alle Absolutwerte der Wurzeln dieser Gleichung, um Eins zu ubersteigen. Dies ist eine au?erst nutzliche Eigenschaft und ermoglicht es uns schnell zu berechnen, ob ein AR (p) - Proze? stationar ist oder nicht. Wir betrachten einige Beispiele, um diese Idee konkret zu machen: Random Walk - Der AR (1) Prozess mit alpha1 1 hat die charakteristische Gleichung theta 1 -. Offensichtlich hat diese Wurzel 1 und als solche ist nicht stationar. AR (1) - Wenn wir alpha1 frac wahlen, erhalten wir xt frac x wt. Dies ergibt eine charakteristische Gleichung von 1 - frac 0, die eine Wurzel von 4 gt 1 hat und somit dieses AR (1) - Verfahren stationar ist. AR (2) - Wenn wir alpha1 alpha2 frac setzen, erhalten wir xt frac x frac x wt. Seine charakteristische Gleichung wird - frac () () 0, die zwei Wurzeln von 1, -2 ergibt. Da es sich um eine Einheitswurzel handelt, handelt es sich um eine nichtstationare Serie. Andere AR (2) - Serien konnen jedoch stationar sein. Eigenschaften der zweiten Ordnung Der Mittelwert eines AR (p) - Prozesses ist Null. Allerdings sind die Autokovarianzen und Autokorrelationen durch rekursive Funktionen, bekannt als die Yule-Walker-Gleichungen gegeben. Die vollstandigen Eigenschaften sind unten angegeben: begin mux E (xt) 0 end begin gammak sum p alpha gamma, enspace k 0 end begin rhok sum p alphai rho, enspace k 0 end Beachten Sie, dass es notwendig ist, die alpha-Parameterwerte vor zu kennen Berechnen der Autokorrelationen. Nachdem wir die Eigenschaften zweiter Ordnung angegeben haben, konnen wir verschiedene Ordnungen von AR (p) simulieren und die entsprechenden Korrektramme darstellen. Simulationen und Correlogramme Beginnen wir mit einem AR (1) - Prozess. Dies ist ahnlich einem zufalligen Weg, au?er dass alpha1 nicht gleich Eins haben muss. Unser Modell wird alpha1 0,6 haben. Der R-Code fur die Erzeugung dieser Simulation ist wie folgt gegeben: Beachten Sie, dass unsere for-Schleife von 2 bis 100, nicht 1 bis 100, als xt-1 ausgefuhrt wird, wenn t0 nicht indexierbar ist. Ahnlich fur AR (p) Prozesse hoherer Ordnung muss t in dieser Schleife von p bis 100 reichen. Wir konnen die Realisierung dieses Modells und seines zugehorigen Korrelogramms mit Hilfe der Layout-Funktion darstellen: Lasst uns jetzt versuchen, einen AR (p) - Proze? an die soeben erzeugten simulierten Daten anzupassen, um zu sehen, ob wir die zugrunde liegenden Parameter wiederherstellen konnen. Sie konnen daran erinnern, dass wir ein ahnliches Verfahren in dem Artikel uber wei?e Rauschen und zufallige Wanderungen durchgefuhrt. Wie sich herausstellt, bietet R einen nutzlichen Befehl ar, um autoregressive Modelle zu passen. Wir konnen diese Methode verwenden, um uns zuerst die beste Ordnung p des Modells zu erzahlen (wie durch die AIC oben bestimmt) und liefern uns mit Parameterschatzungen fur das alphai, die wir dann verwenden konnen, um Konfidenzintervalle zu bilden. Fur die Vollstandigkeit konnen wir die x-Reihe neu erstellen: Jetzt verwenden wir den ar-Befehl, um ein autoregressives Modell an unseren simulierten AR (1) - Prozess anzupassen, wobei die maximale Wahrscheinlichkeitsschatzung (MLE) als Anpassungsverfahren verwendet wird. Wir werden zunachst die beste erhaltene Ordnung extrahieren: Der ar Befehl hat erfolgreich festgestellt, dass unser zugrunde liegendes Zeitreihenmodell ein AR (1) Prozess ist. Wir erhalten dann die Alpha-Parameter (s) Schatzungen: Die MLE-Prozedur hat eine Schatzung erzeugt, Hut 0,523, die etwas niedriger als der wahre Wert von alpha1 0,6 ist. Schlie?lich konnen wir den Standardfehler (mit der asymptotischen Varianz) verwenden, um 95 Konfidenzintervalle um den / die zugrunde liegenden Parameter zu konstruieren. Um dies zu erreichen, erstellen wir einfach einen Vektor c (-1.96, 1.96) und multiplizieren ihn dann mit dem Standardfehler: Der wahre Parameter fallt in das 95 Konfidenzintervall, da wir von der Tatsache erwarten, dass wir die Realisierung aus dem Modell spezifisch generiert haben . Wie ware es, wenn wir die alpha1 -0.6 andern, konnen wir wie folgt ein AR (p) - Modell mit ar: Wiederherstellen wir die richtige Reihenfolge des Modells, mit einer sehr guten Schatzung Hut -0.597 von alpha1-0.6. Wir sehen auch, dass der wahre Parameter wieder innerhalb des Konfidenzintervalls liegt. Fugen wir mehr Komplexitat zu unseren autoregressiven Prozessen hinzu, indem wir ein Modell der Ordnung 2 simulieren. Insbesondere setzen wir alpha10.666, setzen aber auch alpha2 -0.333. Heres den vollstandigen Code, um die Realisierung zu simulieren und zu plotten, sowie das Korrelogram fur eine solche Serie: Wie zuvor sehen wir, dass sich das Korrelogramm signifikant von dem des wei?en Rauschens unterscheidet, wie man es erwarten kann. Es gibt statistisch signifikante Peaks bei k1, k3 und k4. Wieder einmal wollten wir den ar-Befehl verwenden, um ein AR (p) - Modell zu unserer zugrundeliegenden AR (2) - Ausfuhrung zu passen. Die Prozedur ist ahnlich wie bei der AR (1) - Sitzung: Die korrekte Reihenfolge wurde wiederhergestellt und die Parameterschatzungen Hut 0.696 und Hut -0.395 sind nicht zu weit weg von den wahren Parameterwerten von alpha10.666 und alpha2-0.333. Beachten Sie, dass wir eine Konvergenz-Warnmeldung erhalten. Beachten Sie auch, dass R tatsachlich die arima0-Funktion verwendet, um das AR-Modell zu berechnen. AR (p) - Modelle sind ARIMA (p, 0, 0) - Modelle und somit ein AR-Modell ein Spezialfall von ARIMA ohne Moving Average (MA) - Komponente. Nun auch mit dem Befehl arima, um Konfidenzintervalle um mehrere Parameter zu erstellen, weshalb wir vernachlassigt haben, es hier zu tun. Nachdem wir nun einige simulierte Daten erstellt haben, ist es an der Zeit, die AR (p) - Modelle auf finanzielle Asset-Zeitreihen anzuwenden. Financial Data Amazon Inc. Lets beginnen mit dem Erwerb der Aktienkurs fur Amazon (AMZN) mit quantmod wie im letzten Artikel: Die erste Aufgabe ist es, immer den Preis fur eine kurze visuelle Inspektion. In diesem Fall auch die taglichen Schlusskurse: Youll bemerken, dass quantmod einige Formatierungen fur uns, namlich das Datum, und ein etwas hubscheres Diagramm als die ublichen R-Diagramme hinzufugt: Wir werden jetzt die logarithmische Ruckkehr von AMZN und dann die erste nehmen Um die ursprungliche Preisreihe von einer nichtstationaren Serie auf eine (potentiell) stationare zu konvertieren. Dies ermoglicht es uns, Apfel mit Apfeln zwischen Aktien, Indizes oder anderen Vermogenswerten zu vergleichen, fur die Verwendung in spateren multivariaten Statistiken, wie bei der Berechnung einer Kovarianzmatrix. Wenn Sie eine ausfuhrliche Erklarung, warum Protokoll Ruckkehr bevorzugen mochten, werfen Sie einen Blick auf diesen Artikel uber bei Quantivity. Erstellt eine neue Serie, amznrt. Um unsere differenzierten Logarithmen zuruckzuhalten: Wieder einmal konnen wir die Serie darstellen: In diesem Stadium wollen wir das Korrektramm zeichnen. Sie suchten, um zu sehen, ob die differenzierte Reihe wie wei?es Rauschen aussieht. Wenn es nicht dann gibt es unerklarliche serielle Korrelation, die durch ein autoregressives Modell erklart werden konnte. Wir bemerken einen statistisch signifikanten Peak bei k2. Daher gibt es eine vernunftige Moglichkeit der unerklarlichen seriellen Korrelation. Seien Sie sich jedoch bewusst, dass dies aufgrund der Stichprobe. Als solches konnen wir versuchen, ein AR (p) - Modell an die Serie anzubringen und Konfidenzintervalle fur die Parameter zu erzeugen: Die Anpassung des ar-autoregressiven Modells an die erste Reihe differenzierte Serien von Logarithmen erzeugt ein AR (2) - Modell mit Hut -0,0278 Und hat -0.0687. Ive auch die aysmptotische Varianz, so dass wir berechnen konnen Standard-Fehler fur die Parameter und erzeugen Vertrauen Intervalle. Wir wollen sehen, ob null Teil des 95-Konfidenzintervalls ist, als ob es ist, es reduziert unser Vertrauen, dass wir ein echtes zugrunde liegendes AR (2) - Verfahren fur die AMZN-Serie haben. Um die Konfidenzintervalle auf der 95-Ebene fur jeden Parameter zu berechnen, verwenden wir die folgenden Befehle. Wir nehmen die Quadratwurzel des ersten Elements der asymptotischen Varianzmatrix auf, um einen Standardfehler zu erzeugen, dann erstellen Sie Konfidenzintervalle, indem wir sie mit -1,96 bzw. 1,96 fur die 95-Ebene multiplizieren: Beachten Sie, dass dies bei Verwendung der Arima-Funktion einfacher wird , Aber gut bis Teil 2 warten, bevor es richtig eingefuhrt. Somit konnen wir sehen, dass fur alpha1 Null innerhalb des Konfidenzintervalls enthalten ist, wahrend fur alpha2 Null nicht im Konfidenzintervall enthalten ist. Daher sollten wir sehr vorsichtig sein, wenn wir denken, dass wir tatsachlich ein zugrundeliegendes generatives AR (2) - Modell fur AMZN haben. Insbesondere berucksichtigen wir, dass das autoregressive Modell nicht das Volatilitats-Clustering berucksichtigt, was zu einer Clusterbildung der seriellen Korrelation in finanziellen Zeitreihen fuhrt. Wenn wir die ARCH - und GARCH-Modelle in spateren Artikeln betrachten, werden wir dies berucksichtigen. Wenn wir kommen, um die volle Arima-Funktion in den nachsten Artikel verwenden, werden wir Vorhersagen der taglichen Log-Preis-Serie, um uns zu ermoglichen, Trading-Signale zu schaffen. SampP500 US Equity Index Zusammen mit einzelnen Aktien konnen wir auch den US Equity Index, den SampP500, berucksichtigen. Lets alle vorherigen Befehle zu dieser Serie und produzieren die Plots wie zuvor: Wir konnen die Preise: Wie zuvor, erstellen Sie auch die erste Ordnung Differenz der Log-Schlusskurse: Wieder einmal konnen wir die Serie plotten: Es ist klar Aus dieser Grafik, dass die Volatilitat nicht in der Zeit stationar ist. Dies spiegelt sich auch in der Darstellung des Korrelogramms wider. Es gibt viele Peaks, einschlie?lich k1 und k2, die statistisch signifikant uber ein wei?es Rauschmodell hinausgehen. Daruber hinaus sehen wir Hinweise auf Langzeitgedachtnisprozesse, da es einige statistisch signifikante Peaks bei k16, k18 und k21 gibt: Letztendlich benotigen wir ein komplexeres Modell als ein autoregressives Modell der Ordnung p. Allerdings konnen wir in diesem Stadium noch versuchen, ein solches Modell anzupassen. Wir sehen, was wir bekommen, wenn wir dies tun: Mit ar erzeugt ein AR (22) - Modell, dh ein Modell mit 22 Nicht-Null-Parametern Was bedeutet dies sagen uns Es ist bezeichnend, dass es wahrscheinlich viel mehr Komplexitat in der seriellen Korrelation als Ein einfaches lineares Modell der vergangenen Preise kann wirklich erklaren. Jedoch wussten wir dies bereits, weil wir sehen konnen, dass es eine signifikante serielle Korrelation in der Volatilitat gibt. Betrachten wir zum Beispiel die sehr volatile Periode um 2008. Dies motiviert den nachsten Satz von Modellen, namlich den Moving Average MA (q) und den autoregressiven Moving Average ARMA (p, q). Nun lernen Sie uber diese beiden in Teil 2 dieses Artikels. Wie wir immer wieder erwahnen, werden diese letztlich zu der ARIMA - und GARCH-Modellfamilie fuhren, die beide eine viel bessere Anpassung an die serielle Korrelationskomplexitat des Samp500 bieten. Dadurch konnen wir unsere Prognosen signifikant verbessern und letztendlich rentabler gestalten. Klicken Sie unten, um mehr daruber zu erfahren. Die Informationen auf dieser Website ist die Meinung der einzelnen Autoren auf der Grundlage ihrer personlichen Beobachtung, Forschung und jahrelange Erfahrung. Der Herausgeber und seine Autoren sind nicht registrierte Anlageberater, Rechtsanwalte, CPAs oder andere Finanzdienstleister und machen keine Rechts-, Steuer-, Rechnungswesen, Anlageberatung oder andere professionelle Dienstleistungen. Die Informationen, die von dieser Web site angeboten werden, sind nur allgemeine Ausbildung. Weil jeder Einzelne sachliche Situation anders ist, sollte der Leser seinen personlichen Berater suchen. Weder der Autor noch der Herausgeber ubernehmen jegliche Haftung oder Verantwortung fur Fehler oder Unterlassungen und haben weder eine Haftung noch Verantwortung gegenuber Personen oder Korperschaften in Bezug auf Schaden, die direkt oder indirekt durch die auf dieser Website enthaltenen Informationen verursacht oder vermutet werden. Benutzung auf eigene Gefahr. Daruber hinaus kann diese Website erhalten finanzielle Entschadigung von den Unternehmen erwahnt durch Werbung, Affiliate-Programme oder auf andere Weise. Preise und Angebote von Inserenten auf dieser Website andern sich haufig, manchmal ohne Vorankundigung. Wahrend wir uns bemuhen, rechtzeitige und genaue Informationen aufrechtzuerhalten, konnen Angebot Details veraltet sein. Besucher sollten daher die Bedingungen dieser Angebote vor der Teilnahme an ihnen uberprufen. Der Autor und sein Herausgeber haften nicht fur die Aktualisierung von Informationen und haften nicht fur Inhalte, Produkte und Dienstleistungen von Drittanbietern, auch wenn sie uber Hyperlinks und Anzeigen auf dieser Website aufgerufen werden.8.3 Autoregressive Modelle In einem multiplen Regressionsmodell prognostizieren wir die Variable von Interesse Eine lineare Kombination von Pradiktoren. In einem Autoregressionsmodell prognostizieren wir die Variable von Interesse unter Verwendung einer linearen Kombination von vergangenen Werten der Variablen. Der Ausdruck auto regression weist darauf hin, dass es sich um eine Regression der Variablen gegen sich selbst handelt. Somit kann ein autoregressives Modell der Ordnung p geschrieben werden, wobei c eine Konstante ist und et ein wei?es Rauschen ist. Dies ist wie eine multiple Regression, aber mit verzogerten Werten von yt als Pradiktoren. Wir bezeichnen dies als AR (p) - Modell. Autoregressive Modelle sind bemerkenswert flexibel bei der Handhabung einer breiten Palette von verschiedenen Zeitreihen Muster. Die beiden Serien in Abbildung 8.5 zeigen Serien aus einem AR (1) - Modell und einem AR (2) - Modell. Das Andern der Parameter phi1, dots, phip fuhrt zu unterschiedlichen Zeitreihen. Die Varianz des Fehlerbegriffs et wird nur die Skala der Reihe andern, nicht die Muster. Abbildung 8.5: Zwei Beispiele fur Daten aus autoregressiven Modellen mit unterschiedlichen Parametern. Links: AR (1) mit yt 18 -0,8y et. Rechts: AR (2) mit yt 8 ??1,3y-0,7y et. In beiden Fallen ist et normal verteiltes wei?es Rauschen mit mittlerem Nullwert und Varianz eins. Fur ein AR (1) - Modell: Bei phi10 entspricht yt dem wei?en Rauschen. Wenn phi11 und c0, yt aquivalent zu einem zufalligen Weg ist. Wenn phi11 und cne0, ist yt aquivalent zu einem zufalligen Weg mit Drift Wenn phi1lt0, yt dazu neigt, zwischen positiven und negativen Werten oszillieren. Normalerweise beschranken wir autoregressive Modelle auf stationare Daten, und dann sind einige Einschrankungen fur die Werte der Parameter erforderlich. Fur ein AR (1) - Modell: -1 lt phi1 lt 1. Fur ein AR (2) - Modell: -1 lt phi2 lt 1, phi1phi2 lt 1, phi2-phi1 lt 1. Bei pge3 sind die Einschrankungen viel komplizierter. R kummert sich um diese Einschrankungen bei der Schatzung eines Modells.