Logo Leibniz Universität Hannover
Leibniz Universität Hannover/Institut für Statistik
Logo Leibniz Universität Hannover
Leibniz Universität Hannover/Institut für Statistik
  • Zielgruppen
  • Suche
 

ARFIMA-Modelle

Beschreibung: Einige Zeitreihen weisen starke Abhängigkeitsstrukturen auf, sodass auch zeitlich weit voneinander entfernte Beobachtungen signi fikant miteinander korreliert sind. Zur Modellierung solcher Long-Memory-Prozesse konnen ARFIMA-Modelle verwendet werden, welche die klassischen ARMA-Modelle erweitern. Dabei wird die Gewichtung vergangener Werte mithilfe von fraktionaler Integration angepasst.

Literatur: Palma, W. (2007): Long-memory time series: Theory and methods, John Wiley & Sons.; Beran, J., Feng, Y., Ghosh, S., and Kulik, R. (2013): Long-Memory Processes: Probabilistic Properties and Statistical Methods, Springer, Berlin, Heidelberg.; Shumway, R. H. and Sto er, D. S. (2017). Time series analysis and its applications: With R examples, New York: Springer.

TAR- und STAR-Modelle

Beschreibung: Ein gängiges Modell fur lineare Zeitreihen sind die autoregressiven Prozesse (AR), bei der Beobachtungen durch vergangene Werte erklärt werden. Um nichtlineare Zeitreihen zu modellieren, können mehrere lineare AR-Prozesse verbunden werden. Beim TAR-Modell (Threshold AR) wird dazu eine Indikatorfunktion eingebunden, die einen Regimewechsel in Abhängigkeit einer Schwellenvariable auslöst. Beim STAR-Modell (Smooth Transition AR) kann sich jede Beobachtung mithilfe einer Übergangsfunktion aus beiden Regimes zusammensetzen.

Literatur: Tsay, R. S. (2010): Analysis of Financial Time Series, John Wiley & Sons.; Terasvirta, T. (1994): Speci cation, estimation, and evaluation of smooth transition autoregressive models, Journal of the American Statistical Association, 89(425):208-218.

Modellselektion mit LASSO

Beschreibung: Ähnlich wie die Ridge Regression erweitert LASSO die klassische lineare Regression um einen Penalisierungsterm, sodass durch Schrumpfen der Koeffizienten die Varianz der Schätzung reduziert werden kann. Zusätzlich wird eine Modellselektion durchgefüuhrt, indem Koeffizienten auf Null gesetzt werden können. Da LASSO die sogenannten Oracle Properties nicht erfüllt, die eine konsistente Schätzung gewährleisten, wurde das Modell zum Adaptive LASSO erweitert.

Literatur: Hastie, T., Tibshirani, R., and Friedman, J. (2009): The elements of statistical learning, Springer New York.; Tibshirani, R. (1996): Regression shrinkage and selection via the lasso, Journal of the Royal Statistical Society. Series B (Methodological), 58(1):267-288.; Zou, H. (2006): The adaptive lasso and its oracle properties, Journal of the American statistical association, 101(476):1418-1429.

Ridge Regression

Beschreibung: Ridge Regression ist eine Erweiterung der klassischen linearen Regression, bei der die Groöße der Koeffizienten bestraft wird. Dadurch kann die Varianz der Schätzung reduziert werden, besonders wenn die Regressoren korreliert sind. Entscheidend ist die Wahl des Regularisierungsparameters, der das Maß festlegt, mit dem die Koeffizienten geschrumpft werden.

Literatur: Hastie, T., Tibshirani, R., and Friedman, J. (2009): The elements of statistical learning, Springer New York.; Draper, N. R. and Smith, H. (1998): Applied Regression Analysis, Wiley Series in Probability and Statistics.