Monday, 3 July 2017

Generalisierte Autoregressive Bewegliche Durchschnitt Modelle


Glarma: Generalisierte lineare autoregressive bewegliche durchschnittliche Modelle mit. Numerisch die Toleranz für die Erkennung von Zahlen, die kleiner als die angegebene Toleranz sind, als Null. Modelle für Glarma werden symbolisch angegeben. Ein typisches Modell hat die Form y (Antwort), X (Terme), wobei y der Zähl - oder Faktor-Antwortvektor ist, X eine Reihe von Terme ist, die einen linearen Prädiktor für die Antwort spezifiziert. Es sollte beachtet werden, dass die erste Spalte von X ein Vektor von 1s als der Intercept im Modell sein sollte. Vier Anfangsparameter, die geschätzt werden müssen, werden zu Delta (Beta, Phi, Theta, Alpha) zusammengefasst. Wobei alpha ein optionaler Parameter ist, um das negative Binomialmodell aufzunehmen. Beachten Sie, dass in der Funktion glm. nb aus dem Paket MASS. Dieser Parameter heißt theta. Für Poisson - und negative Binomial-Response-Distributionen wird derzeit die Log-Verknüpfung verwendet. Bei binomischen Antworten wird derzeit die Logit-Verknüpfung verwendet. Die verallgemeinerten linearen autoregressiven gleitenden Durchschnittsmodelle werden wie folgt berechnet. Der lineare Prädiktor für die Antwort ist log (mut) Wt transponieren (Xt) beta Offset Zt. Der unendliche gleitende Durchschnitt aus dem linearen Prädiktor ist die Zt-Summe (Gammai-Residuen (t-i)). Dieser unendliche gleitende Durchschnitt wird unter Verwendung der autoregressiven gleitenden Durchschnittsrekursionen Zt phi1 (Z (t-1) e (t-1)) berechnet. Phip (Z e (t-p)) theta1 e. Thetaq e wobei p und q die Ordnungen von phi und theta sind und die ungleichen Verzögerungen der Vektoren phi und theta durch den Benutzer über die Argumente phiLag und thetaLag spezifiziert werden können. Es gibt zwei Arten von Resten, die in jeder Rekursion, Pearson-Residuen oder Score-Residuen verwendet werden können, und zusätzlich für die Binomialverteilung können Identitätsreste verwendet werden. Der unendliche gleitende Durchschnitt, Zt. Hängt von der Art der verwendeten Reste ab, ebenso wie die endgültigen Parameter, die aus dem Filter erhalten wurden. Eine Standardisierung der vergangenen beobachteten Zählungen ist notwendig, um Instabilität zu vermeiden, daher sollte der Benutzer je nach Situation die passende Art von Residuen wählen. Die Methode der Schätzung für in der Funktion implementierte Parameter zielt darauf ab, die Log-Wahrscheinlichkeit durch ein iteratives Verfahren zu maximieren, beginnend mit geeignet gewählten Anfangswerten für die Parameter. Ausgehend von Anfangswerten werden Delta-Hut (0) für den Vektor der Parameter-Aktualisierungen unter Verwendung der Iterationen delta (k1) delta (k) Omega (deltak) erste Ableitung von log (deltak) erhalten, wobei Omega (delta Hut (k)) etwas ist Geeignet gewählte Matrix. Iterationen fahren für k gt 1 fort, bis die Konvergenz erreicht ist oder die Anzahl der Iterationen k eine benutzerdefinierte Obergrenze für maximale Iterationen erreicht, in welchem ​​Fall sie aufhören werden. Das bei unserer Umsetzung verwendete Konvergenzkriterium basiert auf eta. Das Maximum der Absolutwerte der ersten Ableitungen. Wenn eta kleiner als ein benutzerdefinierter Wert ist, stoppen die Iterationen. Es gibt zwei Methoden der Optimierung der Wahrscheinlichkeit, Newton-Raphson und Fisher Scoring. Die angewendete Methode wird durch die Argumentmethode angegeben. Es sollte beachtet werden, dass, wenn der Anfangswert für Parameter nicht gut gewählt wird, die Optimierung der Wahrscheinlichkeit nicht zusammenlaufen kann. Bei der Anpassung von gemischten ARMA-Spezifikationen ist Vorsicht geboten, da es möglich ist, dass die AR - und MA-Parameter nicht identifizierbar sind, wenn die Aufträge p und q zu groß sind. Der Mangel an Identifizierbarkeit manifestiert sich in dem Algorithmus, um die Wahrscheinlichkeit zu optimieren, dass er nicht konvergiert, und der Hessian, der die Warnmeldungen und Konvergenzfehlercodes singulär ist. Die Funktionszusammenfassung (d. h. summary. glarma) kann verwendet werden, um eine Zusammenfassung der Ergebnisse zu erhalten oder zu drucken. Die generischen Accessor-Funktionen coef (dh coef. glarma), logLik (dh logLik. glarma), ausgestattet (dh fit. glarma), Residuen (dh resids. glarma), nobs (dh nobs. glarma), model. frame (dh model. frame. glarma) und extractAIC (dh extractAIC. glarma) können verwendet werden, um verschiedene nützliche Merkmale des von glarma zurückgegebenen Wertes zu extrahieren. Glarma liefert ein Objekt der Klasse glarma mit Komponenten: Verbesserte PDF (344 KB) Zeitreihenmodelle werden oft durch die Kombination von nichtstationären Effekten wie Trends mit stochastischen Prozessen, die vermutlich stationär sind, aufgebaut. Obwohl die Stationarität des zugrunde liegenden Prozesses typischerweise entscheidend ist, um wünschenswerte Eigenschaften oder gar Gültigkeit statistischer Schätzer zu gewährleisten, gibt es zahlreiche Zeitreihenmodelle, für die diese Stationarität noch nicht bewiesen ist. Eine große Barriere ist, dass die am häufigsten verwendeten Methoden die x3C6-Reproduzierbarkeit annehmen, eine Bedingung, die für die wichtige Klasse von diskretwertigen Beobachtungsmodellen verletzt werden kann. Wir zeigen (strenge) Stationarität für die Klasse der generalisierten autoregressiven Moving Average (GARMA) Modelle, die ein flexibles Analogon von ARMA-Modellen für Zähl-, Binär - oder andere diskrete Werte liefert. Wir machen das aus zwei Perspektiven. Zuerst zeigen wir die Bedingungen, unter denen GARMA-Modelle eine eindeutige stationäre Verteilung haben (also bei der Initialisierung in dieser Verteilung streng stationär). Dieses Ergebnis bildet potentiell die Grundlage für die breite Darstellung der Konsistenz und der asymptotischen Normalität der Maximum-Likelihood-Schätzer für GARMA-Modelle. Da diese Schlussfolgerungen aber nicht sofort sind, nehmen wir auch einen zweiten Ansatz ein. Wir zeigen die Stationarität und die Ergodizität einer gestörten Version des GARMA-Modells, die die Tatsache nutzt, dass das gestörte Modell x3C6 - reduzierbar ist und sofort eine konsequente Schätzung der mittleren, verzögerten Kovarianzen und anderer Funktionalitäten des gestörten Prozesses impliziert. Wir verknüpfen die gestörten und ursprünglichen Prozesse, indem wir zeigen, dass das gestörte Modell Parameterschätzungen liefert, die willkürlich nahe denen des ursprünglichen Modells sind. Artikelinformation Datum der Erster verfügbar im Projekt Euklid: 8. August 2011 Permanenter Link zu diesem Dokument projecteuclid. orgeuclid. ejs1312818919 Digitaler Objektidentifikator doi: 10.121411-EJS627 Woodard, Dawn B. Matteson, David S. Henderson, Shane G. Stationarität des generalisierten autoregressiven Umzugs Durchschnittliche Modelle. Elektron. J. Statist. 5 (2011), 800-828. Doi: 10.121411-EJS627 Projecteuclid. orgeuclid. ejs1312818919 Bezugszeichen 1 Benjamin, M. A. Rigby, R. A. und Stasinopoulos, D. M. (2003). Verallgemeinerte autoregressive gleitende Durchschnittsmodelle. Zeitschrift der American Statistical Association 98. 214x2013223 2 Billingsley, P. (1995). Wahrscheinlichkeit und Maßnahme. 3. Aufl. Wiley, New York. Mathematical Reviews (MathSciNet): MR1324786 3 Bougerol, P. und Picard, N. (1992). Strenge Stationarität von generalisierten autoregressiven Prozessen. Annalen der Wahrscheinlichkeit 20. 1714x20131730.4 Brockwell, P. J. und Davis, R. A. (1991). Zeitreihe: Theorie und Methoden. 2nd ed. Springer-Verlag, New York. Mathematical Reviews (MathSciNet): MR1093459 5 Chan, K. S. und Ledolter, J. (1995). Monte Carlo EM Schätzung für Zeitreihenmodelle mit Zählungen. Zeitschrift der American Statistical Association 90. 242x2013252.6 Cox, D. R. (1981). Statistische Analyse der Zeitreihen: Einige neuere Entwicklungen. Skandinavisches Journal der Statistik 8. 93x2013115.Mathematical Reviews (MathSciNet): MR623586 7 Davis, R. A. Dunsmuir, W. T. M. und Streett, S. B. (2003). Observationsgetriebene Modelle für Poisson zählt. Biometrika 90 777x2013790.8 Durbin, J. und Koopman, S. J. (2000). Zeitreihenanalyse von Nicht-Gaußschen Beobachtungen auf der Grundlage von staatlichen Raummodellen aus klassischer und bayesischer Perspektive. Zeitschrift der Royal Stastistical Society, Reihe B 62. 3x201356.9 Ferland, R. Latour, A. und Oraichi, D. (2006). Integer-bewerteter GARCH-Prozess. Zeitschrift der Zeitreihenanalyse 27. 923x2013942.10 Fokianos, K. Rahbek, A. und Tjostheim, D. (2009). Poisson Autoregression Zeitschrift der American Statistical Association 104. 1430x20131439.11 Fokianos, K. und Tjostheim, D. (2010). Nichtlineare Poisson-Autoregression. Gesendet auf Anfrage von K. Fokianos, www2.ucy. ac. cyfokianos. 12 Fokianos, K. und Tjostheim, D. (2011). Log-lineare Poisson-Autoregression. Zeitschrift für multivariate Analyse 102. 563x2013578.13 Hairer, M. (2008). Ergodische Theorie für unendlich-dimensionale stochastische Prozesse. Oberwolfach Berichte 5. 4, 2815x20132874. 14 Hairer, M. und Mattingly, J. C. (2006). Ergodizität der 2D Navier-Stokes-Gleichungen mit degeneriertem stochastischen Zwang. Annalen der Mathematik 164. 993x20131032.15 Jung, R. C. Kukuk, M. und Liesenfeld, R. (2006). Zeitreihen der Zähldaten: Modellierung, Schätzung und Diagnose. Berechnungsstatistik und Datenanalyse 51. 2350x20132364.Mathematische Reviews (MathSciNet): MR2307505 16 LxE9on, L. F. und Tsai, C. (1998). Beurteilung der Modelladäquanz für Markov-Regressionszeitreihenmodelle. Biometrie 54. 1165x20131175.17 Li, W. K. (1994). Zeitreihenmodelle basierend auf generalisierten Linearmodellen: Einige weitere Ergebnisse. Biometrie 50 506x2013511 18 Matteson, D. S. McLean, M. W. Woodard, D. B. und Henderson, S. G. (2011). Vorhersage Notfall medizinischen Service Ankunftsraten. Annalen der angewandten Statistik 5. 1379x20131406.19 Meitz, M. und Saikkonen, P. (2008). Ergodizität, Mischen und Existenz von Momenten einer Klasse von Markov-Modellen mit Anwendungen für GARCH - und ACD-Modelle. Ökonometrische Theorie 24. 1291x20131320.20 Meyn, S. P. und Tweedie, R. L. (1993). Markov-Ketten und stochastische Stabilität. Springer-Verlag, London. Mathematical Reviews (MathSciNet): MR1287609 21 Roberts, G. O. und Rosenthal, J. S. (2004). General State Space Markov Ketten und MCMC Algorithmen. Wahrscheinlichkeitsstudien 1. 20x201371.22 Talamantes, J. Behseta, S. und Zender, C. S. (2007). Statistische Modellierung von Talfieberdaten in Kern County, Kalifornien. Internationale Zeitschrift für Biometeorologie 51. 307x2013313 23 Thorisson, H. (1995). Kopplungsmethoden in Wahrscheinlichkeitstheorie Skandinavisches Journal der Statistik 22. 159x2013182.Mathematische Rezensionen (MathSciNet): MR1339749 24 Tweedie, R. L. (1988). Unveränderliche Maßnahmen für Markov-Ketten ohne Reproduzierbarkeitsannahmen Zeitschrift für Angewandte Wahrscheinlichkeit 25. 275x2013285.25 Zeger, S. L. (1988). Ein Regressionsmodell für Zeitreihen von Zählungen. Biometrika 75 621x2013629.26 Zeger, S. L. und Qaqish, B. (1988). Markov-Regressionsmodelle für Zeitreihen: Ein Quasi-Likelihood-Ansatz. Biometrie 44 1019x20131031.Generalisiert Autoregressive Moving Average Models Hinweis: Überprüfen Sie immer Ihre Referenzen und machen Sie alle notwendigen Korrekturen vor der Verwendung. Achten Sie auf Namen, Großschreibung und Termine. Journal of the American Statistical Association Beschreibung: Das Journal der American Statistical Association (JASA) gilt seit langem als die wichtigste Zeitschrift der statistischen Wissenschaft. Science Citation Index berichtet JASA war die am meisten zitierte Zeitschrift in den mathematischen Wissenschaften in den Jahren 1991-2001, mit 16.457 Zitaten, mehr als 50 mehr als die nächsten hochzitierten Zeitschriften. Artikel in der JASA konzentrieren sich auf statistische Anwendungen, Theorie und Methoden in den Bereichen Wirtschaft, Soziales, Physik, Ingenieurwesen und Gesundheitswissenschaften sowie auf neue Methoden der statistischen Bildung. Abdeckung: 1922-2011 (Bd. 18, Nr. 137 - Bd. 106, Nr. 496) Die bewegte Wand stellt den Zeitraum zwischen der letzten Ausgabe in JSTOR und der zuletzt erschienenen Ausgabe einer Zeitschrift dar. Umzugswände sind in der Regel in Jahren vertreten. In seltenen Fällen hat sich ein Verleger gewählt, um eine bewegte Wand zu haben, so dass ihre aktuellen Ausgaben in JSTOR kurz nach der Veröffentlichung verfügbar sind. Hinweis: Bei der Berechnung der beweglichen Wand wird das laufende Jahr nicht gezählt. Zum Beispiel, wenn das aktuelle Jahr 2008 ist und eine Zeitschrift eine 5-jährige Wandermauer hat, sind Artikel aus dem Jahr 2002 verfügbar. Begriffe im Zusammenhang mit der Moving Wall Fixed Wände: Zeitschriften ohne neue Bände werden dem Archiv hinzugefügt. Absorbiert: Zeitschriften, die mit einem anderen Titel kombiniert werden. Komplett: Zeitschriften, die nicht mehr veröffentlicht werden oder die mit einem anderen Titel kombiniert wurden. Fächer: Mathematik, Mathematik, Mathematik, Mathematik, Mathematik, Mathematik, Mathematik, Mathematik, Mathematik, Mathematik, Mathematik, Mathematik, Mathematik, Mathematik, Mathematik, Mathematik, Mathematik, Mathematik, Mathematik, Mathematik, Mathematik, Mathematik, Mathematik, Mathematik, Mathematik, Mathematik, Mathematik, Mathematik, Mathematik, Mathematik, Mathematik, Mathematik, Mathematik, ARMA-Zeitreihenmodell zu einem flexiblen Beobachtungsmodell für nicht-Gaußsche Zeitreihendaten. Es wird angenommen, dass die abhängige Variable eine bedingte exponentielle Familienverteilung aufweist, die der Vergangenheit des Prozesses gegeben ist. Die Modellschätzung wird mit einem iterativ neugewichteten Algorithmus der kleinsten Quadrate durchgeführt. Eigenschaften des Modells, einschließlich stationärer und marginaler Momente, werden entweder explizit abgeleitet oder mit Hilfe der Monte-Carlo-Simulation untersucht. Die Beziehung des GARMA-Modells zu anderen Modellen wird gezeigt, einschließlich der autoregressiven Modelle von Zeger und Qaqish, der gleitenden Durchschnittsmodelle von Li und dem reparametifizierten verallgemeinerten autoregressiven, bedingten heteroscedastischen GARCH-Modell (das die Formel für sein viertes, . Das Modell wird durch die Anwendung des GARMA-Modells mit einer negativen binomialen bedingten Verteilung auf einen bekannten Zeitreihen-Datensatz der Poliomyelitis zählt. Page Thumbnails JSTOR ist Teil von ITHAKA, einer gemeinnützigen Organisation, die der akademischen Gemeinschaft hilft, digitale Technologien zu nutzen, um die wissenschaftliche Bilanz zu bewahren und Forschung und Lehre nachhaltig voranzubringen. Copy2000-2017 ITHAKA Alle Rechte vorbehalten. JSTORreg, das JSTOR Logo, JPASSreg und ITHAKAreg sind eingetragene Warenzeichen von ITHAKA. glarma: Generalized Linear Autoregressive Moving Average Models mit. Numerisch die Toleranz für die Erkennung von Zahlen, die kleiner als die angegebene Toleranz sind, als Null. Modelle für Glarma werden symbolisch angegeben. Ein typisches Modell hat die Form y (Antwort), X (Terme), wobei y der Zähl - oder Faktor-Antwortvektor ist, X eine Reihe von Terme ist, die einen linearen Prädiktor für die Antwort spezifiziert. Es sollte beachtet werden, dass die erste Spalte von X ein Vektor von 1s als der Intercept im Modell sein sollte. Vier Anfangsparameter, die geschätzt werden müssen, werden zu Delta (Beta, Phi, Theta, Alpha) zusammengefasst. Wobei alpha ein optionaler Parameter ist, um das negative Binomialmodell aufzunehmen. Beachten Sie, dass in der Funktion glm. nb aus dem Paket MASS. Dieser Parameter heißt theta. Für Poisson - und negative Binomial-Response-Distributionen wird derzeit die Log-Verknüpfung verwendet. Bei binomischen Antworten wird derzeit die Logit-Verknüpfung verwendet. Die verallgemeinerten linearen autoregressiven gleitenden Durchschnittsmodelle werden wie folgt berechnet. Der lineare Prädiktor für die Antwort ist log (mut) Wt transponieren (Xt) beta Offset Zt. Der unendliche gleitende Durchschnitt aus dem linearen Prädiktor ist die Zt-Summe (Gammai-Residuen (t-i)). Dieser unendliche gleitende Durchschnitt wird unter Verwendung der autoregressiven gleitenden Durchschnittsrekursionen Zt phi1 (Z (t-1) e (t-1)) berechnet. Phip (Z e (t-p)) theta1 e. Thetaq e wobei p und q die Ordnungen von phi und theta sind und die ungleichen Verzögerungen der Vektoren phi und theta durch den Benutzer über die Argumente phiLag und thetaLag spezifiziert werden können. Es gibt zwei Arten von Resten, die in jeder Rekursion, Pearson-Residuen oder Score-Residuen verwendet werden können, und zusätzlich für die Binomialverteilung können Identitätsreste verwendet werden. Der unendliche gleitende Durchschnitt, Zt. Hängt von der Art der verwendeten Reste ab, ebenso wie die endgültigen Parameter, die aus dem Filter erhalten wurden. Eine Standardisierung der vergangenen beobachteten Zählungen ist notwendig, um Instabilität zu vermeiden, daher sollte der Benutzer je nach Situation die passende Art von Residuen wählen. Die Methode der Schätzung für in der Funktion implementierte Parameter zielt darauf ab, die Log-Wahrscheinlichkeit durch ein iteratives Verfahren zu maximieren, beginnend mit geeignet gewählten Anfangswerten für die Parameter. Ausgehend von Anfangswerten werden Delta-Hut (0) für den Vektor der Parameter-Aktualisierungen unter Verwendung der Iterationen delta (k1) delta (k) Omega (deltak) erste Ableitung von log (deltak) erhalten, wobei Omega (delta Hut (k)) etwas ist Geeignet gewählte Matrix. Iterationen fahren für k gt 1 fort, bis die Konvergenz erreicht ist oder die Anzahl der Iterationen k eine benutzerdefinierte Obergrenze für maximale Iterationen erreicht, in welchem ​​Fall sie aufhören werden. Das bei unserer Umsetzung verwendete Konvergenzkriterium basiert auf eta. Das Maximum der Absolutwerte der ersten Ableitungen. Wenn eta kleiner als ein benutzerdefinierter Wert ist, stoppen die Iterationen. Es gibt zwei Methoden der Optimierung der Wahrscheinlichkeit, Newton-Raphson und Fisher Scoring. Die angewendete Methode wird durch die Argumentmethode angegeben. Es sollte beachtet werden, dass, wenn der Anfangswert für Parameter nicht gut gewählt wird, die Optimierung der Wahrscheinlichkeit nicht zusammenlaufen kann. Bei der Anpassung von gemischten ARMA-Spezifikationen ist Vorsicht geboten, da es möglich ist, dass die AR - und MA-Parameter nicht identifizierbar sind, wenn die Aufträge p und q zu groß sind. Der Mangel an Identifizierbarkeit manifestiert sich in dem Algorithmus, um die Wahrscheinlichkeit zu optimieren, dass er nicht konvergiert, und der Hessian, der die Warnmeldungen und Konvergenzfehlercodes singulär ist. Die Funktionszusammenfassung (d. h. summary. glarma) kann verwendet werden, um eine Zusammenfassung der Ergebnisse zu erhalten oder zu drucken. Die generischen Accessor-Funktionen coef (dh coef. glarma), logLik (dh logLik. glarma), ausgestattet (dh fit. glarma), Residuen (dh resids. glarma), nobs (dh nobs. glarma), model. frame (dh model. frame. glarma) und extractAIC (dh extractAIC. glarma) können verwendet werden, um verschiedene nützliche Merkmale des von glarma zurückgegebenen Wertes zu extrahieren. Glarma liefert ein Objekt der Klasse glarma mit Komponenten:

No comments:

Post a Comment