Bachelorarbeiten
Die Bachelorarbeit im Bereich Statistik besteht in der Regel aus einer Beschreibung neuer statistischer Verfahren und deren Anwendung auf konkrete Daten.
-
Anmeldung
Um sicherzustellen, dass alle Studierenden des Bachelorstudiengangs Wirtschaftswissenschaften ein Bachelorarbeitsthema innerhalb der Regelstudienzeit bekommen, werden die Plätze über ein zentrales Bewerbungsverfahren durch das Studiendekanats zugeteilt. Nach Abschluss des Verfahrens wird Ihnen vom Studiendekanat mitgeteilt, an welchem Institut Sie Ihre Bachelorarbeit schreiben können.
-
Themenvergabe
Für Studierende, die uns über das zentrale Vergabeverfahren zugeteilt wurden, haben wir eine Themenauswahl aus verschiedenen Bereichen zusammengestellt. Eine Übersicht mit den aktuell noch verfügbaren Themen finden Sie auf unserer Website.
Die Themen für das SoSe 2023 und WiSe 2023/24 werden innerhalb der zur Verfügung gestellten Themen nach Wunsch vergeben. Bitte melden Sie sich dazu per Email mit Ihrem Wunschthema im Geschäftszimmer. Wurde ein Thema vergeben, ist es auf unserer Website nicht mehr aufgelistet und somit nicht mehr wählbar.
Voranmeldungen zum frühzeitigen Starten der Bachelorarbeit können ebenfalls per Email ans Geschäftszimmer gerichtet werden.
VerfügbarkeitWenn Sie sich für ein Thema entschieden haben, reservieren wir dieses gerne für Sie. Sobald ein Thema vergeben wurde, nehmen wir dieses von unserer Webseite, sodass dieses nicht mehr verfügbar ist.
Themenliste
Wir haben eine Auswahl mit Themen aus verschiedenen Bereichen zusammengestellt.
Unter der nachfolgenden Kategorie sind die aktuell verfügbaren Themen aufgeführt, sodass Sie sich bei Ihrer Auswahl an diesen orientieren können. Die Themen werden von unserer Webseite genommen, sobald diese nicht mehr verfügbar sind.
-
Themen
Heteroskedastizität
Im klassischen linearen Regressionsmodell wird eine konstante Varianz der Fehlerterme angenommen. Bei sich verändernder Varianz ist der Kleinste-Quadrate-Schätzer nicht mehr effizient. Getestet wird
dies z.B. mit dem White-Test oder dem Breusch-Pagan Test (Original oder Koenkers Version). Als Lösung werden Heteroskedastizität-robuste Standardfehler oder die Gewichtete-Kleinste-Quadrate-
Methode genutzt. Falls gleichzeitig Autokorrelation vorliegt, finden sogenannte HAC-Schätzer Anwendung (heteroscedasticity and autocorrelation consistent).
Einstiegsliteratur:- J.M. Wooldridge. Introductory econometrics: A modern approach. Nelson Education, 2013 (Kap. 8 + 12)
- W.H. Greene. Econometric analysis. Pearson Education, 2012 (Kap. 9)
Autokorrelation
Die Regression mit Zeitreihendaten könnte dazu führen, dass klassische Annahmen an den OLSSchätzer verletzt sind, sodass dieser nicht mehr effizient ist. Autokorrelation ist ein Beispiel dafür.
Wenn Autokorrelation vorliegt, sind die Fehler einer linearen Regression zeitlich abhängig. In dieser Arbeit soll das AR(1) Fehlermodell vorgestellt werden. Darüber hinaus sollen Tests auf Autokorrelation
vorgestellt werden und aufgezeigt werden, wie man trotz Autokorrelation effizient lineare Regressionsmodelle schätzen kann.
Einstiegsliteratur:- J.M. Wooldridge. Introductory econometrics: A modern approach. Nelson Education, 2013 (Kap. 12)
- W.H. Greene. Econometric analysis. Pearson Education, 2012 (Kap. 12)
Endogenität
Im klassischen linearen Regressionsmodell ist eine Voraussetzung für die Konsistenz des OLS-Schätzers, dass die Kovarianz zwischen der Regressormatrix und dem Fehlerterm Null ist. Falls diese Annahme
verletzt ist, liegt sogenannte Endogenität vor. Eine Folge davon ist, dass der OLS-Schätzer einen Bias besitzt. Eine Möglichkeit, um mit Endogenität umzugehen,ist die Verwendung von sogennanten
Instrumentalvariablen. Diese werden mithilfe des Two Stage Least Squares (2SLS) Verfahrens geschätzt, um eine konsistente Schätzung der Koeffizienten zu erlangen. Das Thema kann um eine
weitere Lösungsmöglichkeit für das Endogenitätsproblem erweitert werden: Das Prinzip der generalisierten Momentenmethode (Generalized Method of Moments, GMM) liegt in der Festlegung von Bedingungen
für die Momente der unterstellten Verteilung der Störterme des Modells. Die zu schätzenden Parameter werden so gewählt, dass sie möglichst gut im Einklang mit den Bedingungen stehen.
Einstiegsliteratur:- J.H. Stock und M.W. Watson. Introduction to Econometrics. Pearson Education, 2011 (Kap. 12)
- J.M. Wooldridge. Introductory econometrics: A modern approach. Nelson Education, 2013 (Kap. 15)
- W.H. Greene. Econometric analysis. Pearson Education, 2012 (Chap. 13)
- J.M. Wooldridge. “Applications of generalized method of moments estimation”. In: Journal of Economic perspectives 15.4 (2001), S. 87–100
Simultane Gleichungssysteme
Ein einfaches simultanes Gleichungssystem lässt sich dadurch charakterisieren, dass die abhängige Variable in der einen Gleichung als erklärende Variable in der anderen Gleichung vorkommt und
ungekehrt. Daher entsteht ein Endogenitätsproblem. Zwei Probleme sollen in dieser Arbeit näher erläutert werden: Zum einen das Problem der Identifikation, d.h. unter welchen Umständen können
die Koeffizienten beider Gleichungen geschätzt werden. Zum zweiten sollen Schätzer vorgestellt werden, die unter Endogenität funktionieren und die die Koeffizienten des Systems Gleichung für Gleichung
schätzen.
Einstiegsliteratur:- W.H. Greene. Econometric analysis. Pearson Education, 2012 (Kap. 10)
- F. Hayashi. “Econometrics”. In: Princeton University Press (2000) (Kap. 8)
- J.M. Wooldridge. Econometric analysis of cross section and panel data. MIT Press, 2010 (Kap. 8+9)
Treatment Effects
Beim Schätzen von durchschnittlichen Treatment Effects geht es darum den Effekt verschiedenster Maßnahmen wie z.B. einer Weiterbildung zu analysieren. Insbesondere besteht die Frage wie man diese
Effekte möglichst genau messen und kausal interpretieren kann, falls keine komplett randomisierten Experimente durchgeführt wurden. Für diesen Fall können Matching Verfahren angwendet werden um
möglichst ähnliche Einheiten in der Treatment- und der Kontrollgruppe miteinander zu vergleichen. In dieser Arbeit sollen die zwei prominentesten Matching Verfahren und ihre Eigenschaften vorgestellt
worden: Covariate Matching und Propensity Score Matching. Beim Covariate Matching werden verschiedene Einheiten basierend auf ihren beobachtbaren Eigenschaften miteinander gematched.
Währenddessen werden beim Propensity Score Matching die Einheiten basierend auf der Wahrscheinlichkeit, dass sie in die Treatment Gruppe gehören, gematched.Einstiegsliteratur:
- G. Cerulli. Econometric evaluation of socio-economic programs. Springer, 2015 (Chap. 2)
- J.M. Wooldridge. Econometric analysis of cross section and panel data. MIT Press, 2010 (Chap. 21)
Perzeptron
Das Perzeptron stellt den Grundbaustein moderner neuronaler Netze dar und wird zur Klassifikation verwendet. In seiner grundlegenden Funktionalität kommt das Perzeptron dem multiplen linearen
Regressionsmodell gleich. Im Bereich der neuronalen Netze werden die unabhängigen Variablen des Modells als Eingabe in das Perzeptron interpretiert, welche abhängig von den gelernten Gewichten
des Perzeptrons zu einer bestimmten Ausgabe führen. Das Lernen der Gewichte erfolgt über einen iterativen Trainingsprozess, dessen Funktionsweise und Limitationen im Rahmen dieser Arbeit vorgestellt
werden sollen. In der Arbeit soll weiter auf das Problem der linearen Separierbarkeit der zu klassifizierenden Daten eingegangen und Lösungsmöglichkeiten wie das mehrlagige Perzeptron oder
der Maxover-Algorithmus vorgestellt werden.
Einstiegsliteratur:- W. Ertel und N.T. Black. Grundkurs K¨unstliche Intelligenz. Springer, 2016 (Kap. 8.2)
- C.M. Bishop u. a. Neural Networks for Pattern Recognition. Oxford University Press, 1995 (Kap. 3.5)
- F. Rosenblatt. “The Perceptron: A Probabilistic Model for Information Storage and Organization in the Brain”. In: Psychological review (1958), S. 386
Hauptkomponentenanalyse
Die Hauptkomponentenanalyse, oder auch Principal Component Analysis (PCA), dient zur Identifizierung der Varianz-Kovarianz Struktur mittels Linearkombinationen aus den ursprünglichen Variablen.
Die generelle Intention dieses Verfahrens dient der Komprimierung der Daten und der Interpretierbarkeit dieser. Bei der Anwendung der Hauptkomponentenanalyse werden häufig Zusammenhänge offengelegt,
die vorher nicht offensichtlich sind und daher eine neue Interpretation der Datenstrukturen und Zusammenhänge innerhalb des Datensatzes ermöglicht. Aus diesem Grund wird die Hauptkomponentenanalyse
hauptsächlich zur Erkennung von Beeinflussungsmustern und -strukturen in hochdimensionalen Datensätzen besonders im Bereich der Finanzwissenschaft, Data-Mining, Bioinformatik
und der Umweltforschung eingesetzt.
Einstiegsliteratur:- R.A. Johnson, D.W. Wichern u. a. Applied multivariate statistical analysis. Prentice Hall, NJ, 2002 (Chap. 8)
- A.J. Izenman. “Multivariate regression”. In: Modern Multivariate Statistical Techniques. Springer, 2013, S. 159–194 (Chap. 7)
- W.J. Krzanowski. Recent advances in descriptive multivariate analysis. Clarendon Press, 1995 (Chap. 5)
- M. Ringn´er. “What is principal component analysis?” In: Nature biotechnology 26.3 (2008), S. 303
Factor Analysis (EN)
In factor analysis, we take multiple observed variables that have similar response patterns. Like the original variables, the factors vary from individual to individual; but unlike the variables, the factors
cannot be measured or observed. Each factor captures a certain amount of the overall variance in the observed variables, and the factors are always listed in order of how much variation they explain.
The goal of factor analysis is to reduce the redundancy (needlessness) among the variables by using a smaller number of factors. Motivation for factor models, model definition and assumptions as well as
the estimation procedure should be covered.Introductory Literature:
- A.C. Rencher und W.F. Christensen. Methods of Multivariate Analysis. John Wiley & Sons, Inc., 2012 (Chap. 13)
- J.F. Hair u. a. Multivariate Data Analysis. Pearson Education Limited, 2014 (Chap. 3)
Cluster Analysis (EN)
In cluster analysis we search for patterns in a data set by grouping the (multivariate) observations into clusters. The goal is to find an optimal grouping for which the observations or objects within
each cluster are similar, but the clusters are dissimilar to each other. To group the observations into clusters, many techniques begin with similarities between all pairs of observations. In many cases
the similarities are based on some measure of distance. Other cluster methods use a preliminary choice for cluster centers or a comparison of within- and between-cluster variability. The techniques
of cluster analysis have been extensively applied to data in many fields, such as medicine, psychiatry, sociology, criminology, anthropology, archaeology, geology, geography, remote sensing, market research,
economics, and engineering.
Introductory Literature:- A.C. Rencher und W.F. Christensen. Methods of Multivariate Analysis. John Wiley & Sons, Inc., 2012 (Chap. 15)
- J.F. Hair u. a. Multivariate Data Analysis. Pearson Education Limited, 2014 (Chap. 8)
k-Nearest-Neighbors
k-Nearest-Neighbors (k-NN) ist eine nicht-parametrische Klassifikationsmethode. Der Grundgedanke ist, einzelne Datenpunkte basierend auf der Klassenzugehörigkeit ihnen ähnlicher Datenpunkte -
ihrer Nachbarn - zu klassifizieren. Neben der Definition von Entfernung spielt die Wahl des Parameters k, welcher die Größe der zu berücksichtigenden Nachbarschaft steuert, eine wichtige Rolle. In
dieser Arbeit soll zunächst das Prinzip der Nächste-Nachbarn-Klassifikation und ihrer verschiedenen Ausprägungen vorgestellt werden, um darauf aufbauend die Wahl des Parameters k und der daraus
folgenden Konsequenzen sowie die Evaluationsmöglichkeiten der resultierenden Klassifikation diskutieren zu können.
Einstiegsliteratur:- W. Ertel und N.T. Black. Grundkurs K¨unstliche Intelligenz. Springer, 2016 (Kap. 8.3)
- C.M. Bishop u. a. Neural Networks for Pattern Recognition. Oxford University Press, 1995 (Kap. 2.5)
Autoregressive Prozesse
Eines der wichtigsten Modelle in der Zeitreihenanalyse ist der autoregressive Prozess (AR), bei dem Beobachtungen anhand von vergangenen Beobachtungen und einem Zufallsschock modelliert werden.
Wenn die passende Modellordnung bekannt ist oder gesch¨atzt wurde, also die Anzahl an zu berücksichtigenden vergangenen Beobachtungen, kann mit unterschiedlichen Methoden das Modell
angepasst und zur Prognose genutzt werden. Interessant ist besonders die Eigenschaft der Stationarität des Prozesses.
Einstiegsliteratur:- M. Deistler und W. Scherrer. Modelle der Zeitreihenanalyse. Springer, 2018 (Kap. 5)
- K. Neusser. Zeitreihenanalyse in den Wirtschaftswissenschaften. Springer, 2009 (Kap. 2 + 5)
Masterarbeiten
Die Masterarbeit im Bereich Statistik basiert wie die Bachelorarbeit auf einer Beschreibung neuer statistischer Verfahren und deren Anwendung auf konkrete Daten. Darüber hinaus können neue statistische Verfahren ausführlich und kritisch dargestellt oder eine empirische Studie zu einem statistischen Problem durchgeführt werden.
-
Anmeldung
Bei den Masterarbeiten erfolgt die Zuteilung individuell auf Anfrage der Studierenden. Wenn Sie Ihre Masterarbeit gerne bei uns am Institut schreiben möchten, können Sie gerne Herrn Prof. Dr. Sibbertsen per E-Mail kontaktieren.
-
Themenvergabe
Das Spektrum der Masterarbeitsthemen ist sehr vielfältig und reicht von überwiegend methodischen Arbeiten (Methodendarstellung, Methodenvergleich, Methodenentwicklung) bis zu eigenen empirischen Arbeiten (Datenerhebung und -auswertung) mit inhaltlichen Bezügen zu nahezu allen anderen volkswirtschaftlichen wie auch betriebswirtschaftlichen Wahlpflichtfächern.
Die Themenvergabe erfolgt in direkter Absprache mit Ihnen. Gerne berücksichtigen wir dabei Ihre eigenen Themenvorstellungen.
Hinweise für Abschlussarbeiten
Hier finden Sie weitere Informationen zu den Anforderungen an Bachelorarbeiten sowie eine Vorlage für die Gestaltung in LaTeX. Grundsätzlich soll Ihre Bachelorarbeit 15 Seiten umfassen.
Zum einfacheren Start mit LaTeX empfehlen wir die Nutzung des Overleaf Cloud-Services der Universität (https://www.luis.uni-hannover.de/de/services/speichersysteme/dateiservice/cloud-dienste/overleaf/). Dort kann die Seminarvorlage direkt als neues Projekt hochgeladen werden. Alternativ ist zur Offline-Verwendung eine saubere Installation von MiKTeX (https://miktex.org/) und einem Editor (z.B. TeXstudio, https://www.texstudio.org/) erforderlich.
Einträge für die Bibliographie-Datei können aus Google Scholar kopiert (über Zitieren -> BibTeX) oder z.B. per https://www.doi2bib.org/ erzeugt werden. Bei einem großen Literaturverzeichnis bietet sich die Nutzung einer Literaturverwaltungssoftware (z.B. Citavi, https://www.luis.uni-hannover.de/de/services/betrieb-und-infrastruktur/software-lizenzen/software-katalog/produkte/citavi/) an.
Kontakt für allgemeine Fragen zu Abschlussarbeiten


30167 Hannover

