Logo Leibniz Universität Hannover
Leibniz Universität Hannover/Institut für Statistik
Logo Leibniz Universität Hannover
Leibniz Universität Hannover/Institut für Statistik
  • Zielgruppen
  • Suche
 

Wichtige Information!

Bitte kopieren Sie sich den Text zu den Inhalten sowie die Literaturangaben, sobald Sie sich ein Thema ausgesucht und uns dieses mitgeteilt haben. Wir reservieren dieses Thema anschließend für Sie und nehmen es von unserer Webseite, um kein Thema doppelt zu vergeben. Vielen Dank für Ihr Verständnis!

Regression

Modellselektion mit LASSO

Beschreibung: Ähnlich wie die Ridge Regression erweitert LASSO die klassische lineare Regression um einen Penalisierungsterm, sodass durch Schrumpfen der Koeffizienten die Varianz der Schätzung reduziert werden kann. Zusätzlich wird eine Modellselektion durchgefüuhrt, indem Koeffizienten auf Null gesetzt werden können. Da LASSO die sogenannten Oracle Properties nicht erfüllt, die eine konsistente Schätzung gewährleisten, wurde das Modell zum Adaptive LASSO erweitert.

Literatur: Hastie, T., Tibshirani, R., and Friedman, J. (2009): The elements of statistical learning, Springer New York.; Tibshirani, R. (1996): Regression shrinkage and selection via the lasso, Journal of the Royal Statistical Society. Series B (Methodological), 58(1):267-288.; Zou, H. (2006): The adaptive lasso and its oracle properties, Journal of the American statistical association, 101(476):1418-1429.

Zeitreihen

Linear time series models (EN)

Description: Linear time series models, especially ARMA models, are central to modern stationary time series data analysis. They include past observations of the time series and past interference terms and are therefore a simple and economical way of modelling. Possible extensions are ARIMA and ARFIMA models. (This thesis is supervised in English.)

Literature: Enders, W. (2014): Applied Econometric Time Series, 4th Edition, Wiley Series in Probability and Statistics. Wiley.; Martin, V., Hurn, S., and Harris, D. (2013): Econometric modelling with time series: speci cation, estimation and testing, Cambridge University Press.; Hamilton, J. D. (1994): Time series analysis, volume 2, Princeton university press Princeton, NJ.

VAR Models (EN)

Description: A vector autoregression model is a natural extension of the univariate autoregressive model to dynamic multivariate time series. Its simple framework enables to capture rich dynamics in multiple time series and apply macroeconomic forecasts. (This thesis is supervised in English.)

Literature: Lütkepohl, H. (2005): New introduction to multiple time series analysis, Springer Science & Business Media.; Martin, V., Hurn, S., and Harris, D. (2013): Econometric modelling with time series: speci cation, estimation and testing, Cambridge University Press.; Stock, J. H. and Watson, M. W. (2001): Vector autoregressions, Journal of Economic perspectives, 15(4):101-115.

Unit Root Tests and Structural Breaks (EN)

Description: Since many economic time series are highly persistent, there is an ongoing debate whether they are di fference stationary or trend stationary, which has important implications for the impact of economic shocks. Tests for the null hypothesis of a di fference stationary process can falsely reject if the series is also subject to structural change. Therefore, there are several extensions that allow for the presence of structural breaks. (This thesis is supervised in English.)

Literature: Enders, W. (2014): Applied Econometric Time Series, 4th Edition, Wiley Series in Probability and Statistics. Wiley.; Martin, V., Hurn, S., and Harris, D. (2013): Econometric modelling with time series: speci cation, estimation and testing, Cambridge University Press.; Hamilton, J. D. (1994): Time series analysis, volume 2, Princeton university press Princeton, NJ.

ARFIMA-Modelle

Beschreibung: Einige Zeitreihen weisen starke Abhängigkeitsstrukturen auf, sodass auch zeitlich weit voneinander entfernte Beobachtungen signi fikant miteinander korreliert sind. Zur Modellierung solcher Long-Memory-Prozesse konnen ARFIMA-Modelle verwendet werden, welche die klassischen ARMA-Modelle erweitern. Dabei wird die Gewichtung vergangener Werte mithilfe von fraktionaler Integration angepasst.

Literatur: Palma, W. (2007): Long-memory time series: Theory and methods, John Wiley & Sons.; Beran, J., Feng, Y., Ghosh, S., and Kulik, R. (2013): Long-Memory Processes: Probabilistic Properties and Statistical Methods, Springer, Berlin, Heidelberg.; Shumway, R. H. and Sto er, D. S. (2017). Time series analysis and its applications: With R examples, New York: Springer.

Regression Analysis with Time Series Data (EN)

Description: Regression analysis with time series data entails special challenges since the innovations are often heteroscedastic and exhibit serial correlation. Heteroscedasticity and autocorrelation consistent (HAC) estimates of the variance covariance matrix address these issues and provide robust standard errors. (This thesis is supervised in English.)

Literature: Kiefer, N. M. and Vogelsang, T. J. (2005): A new asymptotic theory for heteroskedasticityautocorrelation robust tests, Econometric Theory, 21(6):1130-1164.; Martin, V., Hurn, S., and Harris, D. (2013): Econometric modelling with time series: speci fication, estimation and testing, Cambridge University Press.; Stock, J. H. and Watson, M. W. (2011b): Introduction to econometrics, 3rd edition.

Prognose mit Google Trends Daten

Beschreibung: Traditionelle Zeitreihenmodelle versuchen ökonomische Variablen auf Basis von historischen Daten vorherzusagen. Problematisch dabei ist, dass diese Modelle auf Daten über ökonomische Aktivität beruhen, die nur mit einem bestimmten Lag verfügbar sind (bspw. Arbeitslosenzahlen o.ä.). Dagegen bieten Online Suchmaschinen eine neue Datenquelle für ökonomische Variablen in Echtzeit. Fraglich ist, ob Suchmaschinendaten wie beispielsweise Google Trends die Prognose traditioneller Modelle verbessern.

Anmerkung: Beim Bearbeiten dieses Themas muss man sich selbst eine geeignete Anwendung anhand der bisherigen umfangreichen Literatur überlegen. Im ersten Teil der Arbeit sollen dann grundlegende theoretische Bausteine beschrieben werden, die im zweiten Teil der Arbeit in der empirischen Anwendung mit R verwendet werden. Das sollte nicht unterschätzt werden.

Literatur: Choi, H. and Varian, H. (2009): Predicting the present with google trends, Technical report, Google Inc.; Bulut, L. (2017): Google trends and forecasting performance of exchange rate models, Journal of
Forecasting, in press
.; Francesco, D. and Marcucci, J. (2017): The predictive power of google searches in forecasting us unemployment, International Journal of Forecasting, 33(4):801-816.; Yu, L., Zhao, Y., Tang, L., and Yang, Z. (2018): Online big data-driven oil consumption forecasting with google trends, International Journal of Forecasting.

Nichtparametrik

Entscheidungsbäume

Beschreibung: Entscheidungsbäume stellen ein leicht zu interpretierendes nichtparametrisches Verfahren dar. Allerdings sind sie in der Praxis oft zu variabel, weswegen meist auf Erweiterungen wie Random Forests oder Boosted Trees zuruckgegri ffen wird. Diese basieren beide auf der Idee des Bootstraps. Aus der ursprünglichen Stichprobe wird dabei mit Zurücklegen eine neue Stichprobe gezogen, für die dann ein neuer Entscheidungsbaum angepasst wird.

Literatur: James, G., Witten, D., Hastie, T., and Tibshirani, R. (2013): An introduction to statistical learning, volume 112, Springer.; Breiman, L. (2001): Random forests, Machine learning, 45(1):5-32.; Freund, Y. and Schapire, R. (1996): Experiments with a new boosting algorithm, In Icml, volume 96, pages 148-156, Citeseer.

Support Vector Machines

Beschreibung: Support Vector Machines sind ein nichtparametrisches Verfahren, welches den, von den Regressoren aufgespannten, Raum durch Hyperebenen unterteilt, sodass Beobachtungen, deren Regressorvektoren innerhalb einer dieser Unterteilungen liegen, jeweils den selben Wert zugeteilt bekommen. Nichtlineare Klassengrenzen werden mit dem sogenannten Kernel Trick linearisiert.

Literatur: Friedman, J., Hastie, T., and Tibshirani, R. (2001): The elements of statistical learning, volume 1, Springer series in statistics, Springer Berlin.; Steinwart, I. and Christmann, A. (2008): Support vector machines, Springer Science & Business Media.; Izenman, A. J. (2008): Modern multivariate statistical techniques, Regression, classi cation and manifold learning.

Finanzmarktstatistik

Simulation und Schätzung im CGMY-Modell

Beschreibung: Das CGMY-Modell von Carr et al. (2002) modelliert Asset Returns und ist ein Beispiel für einen sogenannten Levy-Prozess. Diese Art von Prozessen sollen vorgestellt werden. Insbesondere soll anhand des CGMY-Modells vorgeführt werden, wie die Modellparameter geschätzt werden (siehe Figueroa-Lopez (2006)) und Pfade des Prozesses simuliert werden (siehe Madan and Yor (2008); Manuge (2015)) können.

Literatur: Carr, P., Geman, H., Madan, D. B., and Yor, M. (2002): The ne structure of asset returns: An empirical investigation, The Journal of Business, 75(2):305-332.; Figueroa-Lopez, J. E. (2006): Estimation methods for levy based models of asset prices. www.stat.purdue.edu Madan, D. B. and Yor, M. (2008): Representing the cgmy and meixner levy processes as time changed brownian motions, Journal of Computational Finance, 12(1):27.~figueroa/Talks/SummaryTalk2.pdf.; Manuge, D. J. (2015): Levy Processes For Finance: An Introduction In R, arXiv:1503.03902.

Sonstiges

Modellselektion mit Informationskriterien

Beschreibung: Modellierung ist zentraler Bestandteil der Datenanalyse. Wenn eine Modellklasse ausgewählt ist, liegt die Schwierigkeit darin, das richtige Modell und die richtige Ordnung zu wählen und dabei einen Kompromiss zwischen Anpassungsgüte und Komplexität (Anzahl Parameter) des Modells zu finden. Bekannte Informationskriterien sind beispielsweise das AIC und BIC.

Literatur: Konishi, S. and Kitagawa, G. (2008): Information criteria and statistical modeling, Springer Science & Business Media.