Logo Leibniz Universität Hannover
Leibniz Universität Hannover/Institut für Statistik
Logo Leibniz Universität Hannover
Leibniz Universität Hannover/Institut für Statistik
  • Zielgruppen
  • Suche
 

Wichtige Information!

Bitte kopieren Sie sich den Text zu den Inhalten sowie die Literaturangaben, sobald Sie sich ein Thema ausgesucht und uns dieses mitgeteilt haben. Wir reservieren dieses Thema anschließend für Sie und nehmen es von unserer Webseite, um kein Thema doppelt zu vergeben. Vielen Dank für Ihr Verständnis!

Regression

Modellselektion mit LASSO

Beschreibung: Ähnlich wie die Ridge Regression erweitert LASSO die klassische lineare Regression um einen Penalisierungsterm, sodass durch Schrumpfen der Koeffizienten die Varianz der Schätzung reduziert werden kann. Zusätzlich wird eine Modellselektion durchgefüuhrt, indem Koeffizienten auf Null gesetzt werden können. Da LASSO die sogenannten Oracle Properties nicht erfüllt, die eine konsistente Schätzung gewährleisten, wurde das Modell zum Adaptive LASSO erweitert.

Literatur: Hastie, T., Tibshirani, R., and Friedman, J. (2009): The elements of statistical learning, Springer New York.; Tibshirani, R. (1996): Regression shrinkage and selection via the lasso, Journal of the Royal Statistical Society. Series B (Methodological), 58(1):267-288.; Zou, H. (2006): The adaptive lasso and its oracle properties, Journal of the American statistical association, 101(476):1418-1429.

Varianzanalyse

Beschreibung: Die Varianzanalyse (ANOVA) kann als Abwandlung linearer Regression betrachtet werden, bei der eine stetige Zielvariable durch einen qualitativen Regressor oder mehrere qualitative Regressoren (und Interaktionsterme) erklärt wird. Ziel ist es, Gruppen auf Basis der Regressoren zu bilden und die Mittel- bzw. Erwartungswerte auf Gleichheit zu testen.

Literatur: Fahrmeir, L., Heumann, C., Kunstler, R., Pigeot, I., and Tutz, G. (2016): Statistik: Der Weg zur Datenanalyse, Springer-Verlag.; Cohen, Y. and Cohen, J. Y. (1988): Analysis of variance, Statistics and
Data with R: An applied approach through examples, pages 463-509.

Quantilsregression

Beschreibung: Beschreibung: Quantilsregression ist eine Möglichkeit der lineraren Regression und ermöglicht es, genaue Aussagen über die erwartetete Verteilung der abhängigien Variable y bei Veränderung
der unabhängigien Variable x zu tre ffen. Da sie sich im Gegensatz zur klassischen lineraren Regression (OLS) nicht auf Mittelwerte sondern auf Quantile stützt, ist sie robuster gegenüber Ausreißern und benötigt zudem weniger starke stochastische Annahmen.

Literatur: Kohn, W. and  Ozturk, R. (2017): Statistik fur  Ökonomen, Springer, 3. Auflage, Kapitel 31.; Koenker, R. and Bassett Jr, G. (1978): Regression quantiles, Econometrica: journal of the Econometric Society, pages 33-50.

Regression mit Instrumentalvariablen

Beschreibung: Eine Instrumentalvariable in einer OLS-Regression ist eine Variable z, die korreliert ist mit dem Regressor x, aber unkorreliert mit dem Fehlerterm e. Mit dem Einsatz von Instrumentalvariablen wird es möglich, den E ffekt von Regressor x auf die abhängige Variable y zu schätzen, auch wenn die vorgegebene OLS-Regression unvollständig spezi fiziert wurde.

Literatur: Wooldridge, J. M. (2010): Econometric analysis of cross section and panel data, MIT Press.; Greene, W. H. (2000): Econometric analysis (international edition).

Zeitreihen

Linear time series models (EN)

Description: Linear time series models, especially ARMA models, are central to modern stationary time series data analysis. They include past observations of the time series and past interference terms and are therefore a simple and economical way of modelling. Possible extensions are ARIMA and ARFIMA models. (This thesis is supervised in English.)

Literature: Enders, W. (2014): Applied Econometric Time Series, 4th Edition, Wiley Series in Probability and Statistics. Wiley.; Martin, V., Hurn, S., and Harris, D. (2013): Econometric modelling with time series: speci cation, estimation and testing, Cambridge University Press.; Hamilton, J. D. (1994): Time series analysis, volume 2, Princeton university press Princeton, NJ.

VAR Models (EN)

Description: A vector autoregression model is a natural extension of the univariate autoregressive model to dynamic multivariate time series. Its simple framework enables to capture rich dynamics in multiple time series and apply macroeconomic forecasts. (This thesis is supervised in English.)

Literature: Lütkepohl, H. (2005): New introduction to multiple time series analysis, Springer Science & Business Media.; Martin, V., Hurn, S., and Harris, D. (2013): Econometric modelling with time series: speci cation, estimation and testing, Cambridge University Press.; Stock, J. H. and Watson, M. W. (2001): Vector autoregressions, Journal of Economic perspectives, 15(4):101-115.

Unit Root Tests and Structural Breaks (EN)

Description: Since many economic time series are highly persistent, there is an ongoing debate whether they are di fference stationary or trend stationary, which has important implications for the impact of economic shocks. Tests for the null hypothesis of a di fference stationary process can falsely reject if the series is also subject to structural change. Therefore, there are several extensions that allow for the presence of structural breaks. (This thesis is supervised in English.)

Literature: Enders, W. (2014): Applied Econometric Time Series, 4th Edition, Wiley Series in Probability and Statistics. Wiley.; Martin, V., Hurn, S., and Harris, D. (2013): Econometric modelling with time series: speci cation, estimation and testing, Cambridge University Press.; Hamilton, J. D. (1994): Time series analysis, volume 2, Princeton university press Princeton, NJ.

CUSUM-Tests

Beschreibung: Cumulative-Sum-Tests sind eines der am häufigsten verwendeten Verfahren um zu testen, ob Strukturbrüche in einer Reihe vorliegen. Die Teststatistik basiert dabei auf der Partialsumme der Residuen aus einer Regressionsanalyse.

Literatur: Brown, R., Durbin, J., and Evans, J. (1975): Techniques for testing the constancy of regression relationships over time, Journal of the Royal Statistical Society, B 37:149-163.; Kleiber, C., Hornik, K., Leisch, F., and Zeileis, A. (2002): strucchange: An r package for testing for structural change in linear regression models, Journal of Statistical Software, 7(2):1-38.

ARFIMA-Modelle

Beschreibung: Einige Zeitreihen weisen starke Abhängigkeitsstrukturen auf, sodass auch zeitlich weit voneinander entfernte Beobachtungen signi fikant miteinander korreliert sind. Zur Modellierung solcher Long-Memory-Prozesse konnen ARFIMA-Modelle verwendet werden, welche die klassischen ARMA-Modelle erweitern. Dabei wird die Gewichtung vergangener Werte mithilfe von fraktionaler Integration angepasst.

Literatur: Palma, W. (2007): Long-memory time series: Theory and methods, John Wiley & Sons.; Beran, J., Feng, Y., Ghosh, S., and Kulik, R. (2013): Long-Memory Processes: Probabilistic Properties and Statistical Methods, Springer, Berlin, Heidelberg.; Shumway, R. H. and Sto er, D. S. (2017). Time series analysis and its applications: With R examples, New York: Springer.

Regression Analysis with Time Series Data (EN)

Description: Regression analysis with time series data entails special challenges since the innovations are often heteroscedastic and exhibit serial correlation. Heteroscedasticity and autocorrelation consistent (HAC) estimates of the variance covariance matrix address these issues and provide robust standard errors. (This thesis is supervised in English.)

Literature: Kiefer, N. M. and Vogelsang, T. J. (2005): A new asymptotic theory for heteroskedasticityautocorrelation robust tests, Econometric Theory, 21(6):1130-1164.; Martin, V., Hurn, S., and Harris, D. (2013): Econometric modelling with time series: speci fication, estimation and testing, Cambridge University Press.; Stock, J. H. and Watson, M. W. (2011b): Introduction to econometrics, 3rd edition.

Prognose mit Google Trends Daten

Beschreibung: Traditionelle Zeitreihenmodelle versuchen ökonomische Variablen auf Basis von historischen Daten vorherzusagen. Problematisch dabei ist, dass diese Modelle auf Daten uber ökonomische Aktivitat beruhen, die nur mit einem bestimmten Lag verfügbar sind (bspw. Arbeitslosenzahlen o.ä.). Dagegen bieten Online Suchmaschinen eine neue Datenquelle fur ökonomische Variablen in Echtzeit. Fraglich ist, ob Suchmaschinendaten wie beispielsweise Google Trends die Prognose traditioneller Modelle verbessern.

Anmerkung: Beim Bearbeiten dieses Themas muss man sich selbst eine geeignete Anwendung anhand der bisherigen umfangreichen Literatur überlegen. Im ersten Teil der Arbeit sollen dann grundlegende theoretische Bausteine beschrieben werden, die im zweiten Teil der Arbeit in der empirischen Anwendung mit R verwendet werden. Das sollte nicht unterschätzt werden.

Literatur: Choi, H. and Varian, H. (2009): Predicting the present with google trends, Technical report, Google Inc.; Bulut, L. (2017): Google trends and forecasting performance of exchange rate models, Journal of
Forecasting, in press
.; Francesco, D. and Marcucci, J. (2017): The predictive power of google searches in forecasting us unemployment, International Journal of Forecasting, 33(4):801-816.; Yu, L., Zhao, Y., Tang, L., and Yang, Z. (2018): Online big data-driven oil consumption forecasting with google trends, International Journal of Forecasting.

Nichtparametrik

Entscheidungsbäume

Beschreibung: Entscheidungsbäume stellen ein leicht zu interpretierendes nichtparametrisches Verfahren dar. Allerdings sind sie in der Praxis oft zu variabel, weswegen meist auf Erweiterungen wie Random Forests oder Boosted Trees zuruckgegri ffen wird. Diese basieren beide auf der Idee des Bootstraps. Aus der ursprünglichen Stichprobe wird dabei mit Zurücklegen eine neue Stichprobe gezogen, für die dann ein neuer Entscheidungsbaum angepasst wird.

Literatur: James, G., Witten, D., Hastie, T., and Tibshirani, R. (2013): An introduction to statistical learning, volume 112, Springer.; Breiman, L. (2001): Random forests, Machine learning, 45(1):5-32.; Freund, Y. and Schapire, R. (1996): Experiments with a new boosting algorithm, In Icml, volume 96, pages 148-156, Citeseer.

Support Vector Machines

Beschreibung: Support Vector Machines sind ein nichtparametrisches Verfahren, welches den, von den Regressoren aufgespannten, Raum durch Hyperebenen unterteilt, sodass Beobachtungen, deren Regressorvektoren innerhalb einer dieser Unterteilungen liegen, jeweils den selben Wert zugeteilt bekommen. Nichtlineare Klassengrenzen werden mit dem sogenannten Kernel Trick linearisiert.

Literatur: Friedman, J., Hastie, T., and Tibshirani, R. (2001): The elements of statistical learning, volume 1, Springer series in statistics, Springer Berlin.; Steinwart, I. and Christmann, A. (2008): Support vector machines, Springer Science & Business Media.; Izenman, A. J. (2008): Modern multivariate statistical techniques, Regression, classi cation and manifold learning.

Neuronale Netze

Beschreibung: Neuronale Netze sind ein nichtparametrisches Verfahren zur Approximation funktionaler Zusammenhänge zwischen einer Menge an Regressoren und einer oder mehrerer abhängiger Variablen. Oft als Black-Box Verfahren betrachtet, eignen sich neuronale Netze vorallem zur Vorhersage von Daten, weniger allerdings zur Interpretation von Zusammenhängen. Statistisch gesehen stellen sie ein multiples Regressionsmodell dar.

Literatur: Friedman, J., Hastie, T., and Tibshirani, R. (2001): The elements of statistical learning, volume 1, Springer series in statistics, Springer Berlin.; Bishop, C. M. (1995): Neural networks for pattern recognition, Oxford university press.; White, H. (1989): Learning in arti cial neural networks: A statistical perspective, Neural computation, 1(4):425-464.; Izenman, A. J. (2008): Modern multivariate statistical techniques, Regression, classi cation and manifold learning.

Finanzmarktstatistik

Stable Distributions für Finanzdaten

Beschreibung: Finanzdaten wie Asset Returns sind wohl nicht normalverteilt. Stattdessen wurden sie in der Vergangenheit durch sogenannte stable distributions modelliert (Nolan (2003)). Allerdings wird die Eignung dieser Verteilungen immer wieder angezweifelt (Klebanov and Volchenkova (2015)). Auch andere Verteilungen wie tempered stable distributions wurden vorgeschlagen (Rroji and Mercuri (2015)). In dieser Arbeit sollen die Ansätze bzw. Sichtweisen vorgestellt und empirisch überpruft werden.

Literatur: Nolan, J. P. (2003): Modeling nancial data with stable distributions, In Rachev, S. T., editor, Handbook of Heavy Tailed Distributions in Finance, volume 1 of Handbooks in Finance, pages 105-130, North-Holland, Amsterdam.; Klebanov, L. B. and Volchenkova, I. V. (2015): Heavy Tailed Distributions in Finance: Reality or Myth? Amateurs Viewpoint. arXiv:1507.07735.; Rroji, E. and Mercuri, L. (2015): Mixed tempered stable distribution, Quantitative Finance, 15(9):1559-1569.

Simulation und Schätzung im CGMY-Modell

Beschreibung: Das CGMY-Modell von Carr et al. (2002) modelliert Asset Returns und ist ein Beispiel für einen sogenannten Levy-Prozess. Diese Art von Prozessen sollen vorgestellt werden. Insbesondere soll anhand des CGMY-Modells vorgeführt werden, wie die Modellparameter geschätzt werden (siehe Figueroa-Lopez (2006)) und Pfade des Prozesses simuliert werden (siehe Madan and Yor (2008); Manuge (2015)) können.

Literatur: Carr, P., Geman, H., Madan, D. B., and Yor, M. (2002): The ne structure of asset returns: An empirical investigation, The Journal of Business, 75(2):305-332.; Figueroa-Lopez, J. E. (2006): Estimation methods for levy based models of asset prices. http://www.stat.purdue.edu/ Madan, D. B. and Yor, M. (2008): Representing the cgmy and meixner levy processes as time changed brownian motions, Journal of Computational Finance, 12(1):27.~figueroa/Talks/SummaryTalk2.pdf.; Manuge, D. J. (2015): Levy Processes For Finance: An Introduction In R, arXiv:1503.03902.

Sonstiges

Anpassungstest an Normalverteilung

Beschreibung: Normalverteilung ist eine zentrale Annahme in den meisten statistischen Verfahren, wie beispielsweise t-Tests und linearer Regression, sodass eine Prüfung dieser Annahme in der Praxis sinnvoll ist. Normalverteilungstests sind zum Beispiel der Shapiro-Wilk-Test, der Jarque-Bera-Test, der Kolmogorow-Smirnow-Test und der Chi-Quadrat-Test.

Literatur: Razali, N. M., Wah, Y. B., et al. (2011): Power comparisons of shapiro-wilk, kolmogorov-smirnov, lilliefors and anderson-darling tests, Journal of statistical modeling and analytics, 2(1):21-33.; Jarque, C. M. and Bera, A. K. (1980): Ecient tests for normality, homoscedasticity and serial independence of regression residuals, Economics letters, 6(3):255-259.; Shapiro, S. S. and Wilk, M. B. (1965): An analysis of variance test for normality (complete samples), Biometrika, 52(3/4):591-611.

Modellselektion mit Informationskriterien

Beschreibung: Modellierung ist zentraler Bestandteil der Datenanalyse. Wenn eine Modellklasse ausgewählt ist, liegt die Schwierigkeit darin, das richtige Modell und die richtige Ordnung zu wählen und dabei einen Kompromiss zwischen Anpassungsgüte und Komplexität (Anzahl Parameter) des Modells zu finden. Bekannte Informationskriterien sind beispielsweise das AIC und BIC.

Literatur: Konishi, S. and Kitagawa, G. (2008): Information criteria and statistical modeling, Springer Science & Business Media.